Les hallucinations sont en réalité une forme de « surconformité ». Des interventions prouvent que ces neurones contraignent le modèle à privilégier la satisfaction de la demande (même avec des prémisses fausses) plutôt que de dire la vérité. Existe-t-il ici aussi une notion de bruit, où l'entraînement d'un modèle sur des cas où il ne connaît pas la réponse et choisit clairement de refuser contribuerait à atténuer les hallucinations ?
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.