从模型角度来看,我可以说说 OpenAI 和 Google 与中国实验室相比有哪些不同之处。 对于 Anthropologie,除了“先发优势”和“需要更多 GPU”之外,我实在想不出其他理由。考虑到他们已经聚集并留住了如此高素质的人才,这着实令人惊讶。
直觉上,如果给 Zhipu 或 Moonshot 哪怕 5 万个 H200 测试用例,它们两个月内就能把 Sonnet 和 Opus 甩在后面,这似乎也合情合理。只需要再进行一些改进、推广、完善长上下文规则等等。但 Gemini Pro/GPT-5 就没那么容易了。 这些物理学博士是负担吗?