我也是这么想的,而且我觉得从我喜欢贴的那些例子里就能很清楚地看出这一点。它不是在探寻真理,而是在上下文设定的大致方向上摸索。它实际上并不想解决问题或做出任何发现。
从 GPT-3.5 预测农民需要往返 7 次才能过河(河里没有山羊或狼)到这个问题,两者之间存在着直接的联系。所有语言学习模型(LLM)的共同之处在于,它们实际上并不试图解决问题,而只是试图生成表面上看起来像解决方案的文本。
有时候,某种东西表面上看起来像个解决方案,是因为它本身就是个解决方案。但我认为,在任何领域,你都不能指望靠这个取得实质性的进展。
我预计,如果有人明天证明了黎曼猜想,他们就能向 GPT-5.2 解释这个证明,而 GPT-5.2 似乎也能理解。这时你可能会好奇,为什么它没能自行得出这个结论。原因在于,没有任何力量推动它朝着这个方向发展。