Je partage cet avis, et je pense que cela transparaît clairement dans les exemples que je publie. Il ne s'agit pas de viser des vérités, mais de tâtonner dans la direction approximative indiquée par le contexte. L'objectif n'est pas de résoudre des problèmes ni de faire des découvertes.
Il existe une corrélation directe entre le calcul de GPT-3.5 indiquant qu'il faut 7 trajets à un fermier pour traverser une rivière sans chèvres ni loups et ce résultat. Le point commun de tous les modèles de langage (LLM) est qu'ils ne cherchent pas réellement à résoudre les problèmes, mais se contentent de générer du texte qui ressemble superficiellement à des solutions.
Parfois, si quelque chose ressemble superficiellement à une solution, c'est tout simplement parce que c'en est une. Mais je ne crois pas qu'on puisse s'appuyer sur cela pour réaliser des progrès significatifs dans quelque domaine que ce soit.
Je pense que si quelqu'un démontrait l'hypothèse de Riemann demain, il pourrait en expliquer la démonstration à GPT-5.2, qui semblerait la comprendre. On pourrait alors se demander pourquoi il n'y est pas parvenu de lui-même. La raison est simple : rien ne le pousse dans cette direction.