저도 그렇게 생각하고, 제가 자주 올리는 예시들을 보면 그 점이 아주 명확하게 드러난다고 봅니다. 진실을 파헤치는 것이 아니라, 맥락이 제시하는 대략적인 방향을 따라 더듬거리며 나아가는 거죠. 문제를 해결하거나 새로운 발견을 하려는 의도가 전혀 없는 겁니다.
gpt-3.5에서 농부가 염소나 늑대 없이 강을 건너는 데 7번 왕복해야 한다는 계산이 나온 것부터 이 결과까지 직접적인 연관성이 있습니다. 모든 LLM(Learning Language Model)의 공통점은 문제를 실제로 해결하려 하지 않고, 그저 해결책처럼 보이는 텍스트를 생성하려고만 한다는 것입니다.
어떤 것이 표면적으로 해결책처럼 보이는 이유는 실제로 그것이 해결책이기 때문일 수 있습니다. 하지만 어떤 분야에서든 근본적인 발전을 위해서는 이러한 방식에만 의존할 수는 없다고 생각합니다.
만약 누군가가 내일 리만 가설을 증명한다면, 그 증명 과정을 GPT-5.2에 설명할 수 있을 것이고, GPT-5.2는 그것을 이해하는 것처럼 보일 것입니다. 그러면 왜 GPT-5.2가 스스로 그 단계에 도달하지 못했는지 의아해할 수도 있습니다. 그 이유는 GPT-5.2를 그 방향으로 이끌 만한 어떤 것도 없기 때문입니다.