En cuanto a modelos, puedo decir qué tienen OpenAI y Google que los distingue de los laboratorios chinos. En el caso de Anthropic, me cuesta encontrar otra explicación que no sea «ventaja del pionero» y «un poco más de GPU». Y es muy sorprendente, dado el calibre del talento que han reunido y retenido.
Parece intuitivamente plausible que si le dieras a Zhipu o Moonshot incluso 50.000 H200, superarían a Sonnet y Opus en dos meses. Solo necesitarían algunas etapas de refinamiento, lanzamientos, mejores rúbricas de contexto a largo plazo, etc. No sería tan fácil para Gemini Pro/GPT-5. ¿Son un lastre esos doctores en física?