從模型角度來看,我可以說說 OpenAI 和 Google 與中國實驗室相比有哪些不同之處。 對於 Anthropologie,除了「先發優勢」和「需要更多 GPU」之外,我實在想不出其他理由。考慮到他們已經聚集並留住瞭如此高素質的人才,這著實令人驚訝。
直覺上,如果給 Zhipu 或 Moonshot 哪怕 5 萬個 H200 測試用例,它們兩個月內就能把 Sonnet 和 Opus 甩在後面,這似乎也合情合理。只需要再進行一些改進、推廣、完善長上下文規則等等。但 Gemini Pro/GPT-5 就沒那麼容易了。 這些物理學博士是負擔嗎?