Il semble tout à fait plausible que si on donnait à Zhipu ou Moonshot ne serait-ce que 50 000 H200, ils surpasseraient Sonnet et Opus en deux mois. Il suffirait de quelques étapes de perfectionnement supplémentaires, de déploiements progressifs, de meilleures grilles d'analyse du contexte long, etc. Ce n'est pas aussi simple pour Gemini Pro/GPT-5. Ces docteurs en physique représentent-ils un handicap ?
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.