我也是這麼想的,而且我覺得從我喜歡貼的那些例子裡就能很清楚看出這一點。它不是在探尋真理,而是在上下文設定的大致方向上摸索。它實際上並不想解決問題或做出任何發現。
從 GPT-3.5 預測農民需要往返 7 次才能過河(河裡沒有山羊或狼)到這個問題,兩者之間存在著直接的關聯。所有語言學習模型(LLM)的共同點在於,它們實際上並不試圖解決問題,而只是試圖產生表面上看起來像解決方案的文字。
有時候,某些東西表面上看起來像個解決方案,是因為它本身就是一個解決方案。但我認為,在任何領域,你都不能指望靠這個取得實質的進展。
我預計,如果有人明天證明了黎曼猜想,他們就能向 GPT-5.2 解釋這個證明,而 GPT-5.2 似乎也能理解。這時你可能會好奇,為什麼它沒能自行得出這個結論。原因在於,沒有任何力量推動它朝著這個方向發展。