En matière de modélisation, je peux dire ce qui distingue OpenAI et Google des laboratoires chinois. Concernant Anthropic, j'ai du mal à trouver autre chose qu'un « avantage de pionnier » et « un peu plus de GPU ». C'est d'autant plus surprenant, compte tenu du calibre des talents qu'ils ont attirés et fidélisés.
Il semble tout à fait plausible que si on donnait à Zhipu ou Moonshot ne serait-ce que 50 000 H200, ils surpasseraient Sonnet et Opus en deux mois. Il suffirait de quelques étapes de perfectionnement supplémentaires, de déploiements progressifs, de meilleures grilles d'analyse du contexte long, etc. Ce n'est pas aussi simple pour Gemini Pro/GPT-5. Ces docteurs en physique représentent-ils un handicap ?