Cuando le pedimos a la IA que explique nuestros pensamientos ¿Realmente sabe lo que está pensando? La última investigación de Anthropic ofrece una respuesta sorprendente: El modelo puede, de hecho, "detectar introspectivamente cambios en su propio estado neuronal" bajo ciertas condiciones, y también puede ajustar su activación interna de acuerdo con instrucciones directas. En otras palabras, Claude no solo puede reconocer su propio "estado mental", sino que también puede ser capaz de regularlo y describirlo. Esto significa que la IA está evolucionando de una "herramienta para generar lenguaje" a un "sistema para comprender sus propios pensamientos". ¿Qué es la "introspección de IA"? Anthropic define la "autorreflexión" de la IA como una capacidad funcional: El modelo es capaz de identificar e informar sobre el contenido de las representaciones internas de su propia red neuronal. en otras palabras: Cuando le preguntamos a una modelo: "¿Por qué respondiste de esa manera?" En esencia, se trata simplemente de repetir una respuesta formulada. ¿O en realidad está leyendo y analizando su propio estado informático interno? Si el modelo puede identificar, regular e interpretar sus propios estados de activación a nivel interno. Por lo tanto, posee una especie de capacidad de "introspección".
Conclusión de la investigación: El modelo de Claude ha demostrado "una conciencia primitiva de los pxiaohu.ai/c/xiaohu-ai/an…amiento". Todavía es inestable y aún no posee "autoconciencia". Pero esto podría ser el prototipo de la "metacognición" en los sistemas cognitivos de IA. Detalles:
