C'est extrêmement instructif. Ce que nous voyons ici (je crois) : OpenAI, depuis la génération GPT-5, utilise un pipeline pour les données synthétiques à long contexte, similaire à celui-ci. Gemini 2.5 ne l'utilise pas. Il est bien plus performant sur des données réelles. -Au 28 mai, DeepSeek n'en avait aucun, ses performances sont naturelles. - Maverick était ngmi
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
