Lorsque nous demandons à l'IA d'expliquer nos pensées Sait-il vraiment ce qu'il pense ? Les dernières recherches d'Anthropic apportent une réponse surprenante : Le modèle peut en effet « détecter introspectivement les changements de son propre état neuronal » dans certaines conditions, et il peut également ajuster son activation interne en fonction d'instructions directes. Autrement dit, Claude peut non seulement reconnaître son propre « état d'esprit », mais aussi le réguler et le décrire. Cela signifie que l'IA évolue d'un « outil de génération de langage » vers un « système capable de comprendre ses propres pensées ». Qu’est-ce que « l’introspection de l’IA » ? Anthropic définit l’« autoréflexion » de l’IA comme une capacité fonctionnelle : Le modèle est capable d'identifier et de rendre compte du contenu des représentations internes de son propre réseau neuronal. autrement dit: Lorsque nous demandons à un mannequin : « Pourquoi avez-vous répondu de cette façon ? » Il s'agit essentiellement de répéter une réponse toute faite. Ou bien est-ce qu'il lit et analyse en réalité son propre état de calcul interne ? Si le modèle peut identifier, réguler et interpréter ses propres états d'activation au niveau interne. Elle possède donc une sorte de capacité d'« introspection ».
Conclusion de la recherche : Le modèle de Claude a démontré « une conscience primitive de ses proprexiaohu.ai/c/xiaohu-ai/an…. Il est encore instable et ne possède pas encore de « conscience de soi ». Mais il pourrait s'agir du prototype de la « métacognition » dans les systèmes cognitifs d'IA. Détails:
