Em termos de modelos, posso dizer o que a OpenAI e o Google têm que os diferencia dos laboratórios chineses. No caso da Anthropic, tenho dificuldade em pensar em algo além de "vantagem de pioneirismo" e "um pouco mais de GPUs". E isso é muito surpreendente, considerando o nível de talento que eles reuniram e mantiveram.
Tipo, parece intuitivamente plausível que, se você desse ao Zhipu ou ao Moonshot pelo menos 50 mil H200s, eles detonariam o Sonnet e o Opus em dois meses. Só precisariam de mais algumas etapas de refinamento, implementações, melhores rubricas de contexto longo, etc. Não é tão fácil para o Gemini Pro/GPT-5. Será que esses doutores em física representam um risco?