La explicación de LangChain sobre cómo los agentes pueden usar sistemas de archivos para la ingeniería de contexto me hizo reír. ¿No es esta la idea central detrás del enfoque de ingeniería de contexto de Manus? Libere la información del mensaje. Ponlo en el estado externo. Lee lo que necesites leer, descarta lo que necesites descartar y no sobrecargues tu almacén con modelos. El principio básico es convertir el contexto en un recurso controlable; simplemente acumular recursos incontrolables no es diferente a rezar. Pero hay algunas diferencias; LangChain va aún más allá. Hace que el agente trate el sistema de archivos como su propia corteza cerebral. La estructura del directorio es la jerarquía abstracta y grep/glob es el mecanismo de recuperación. (¿Le suena familiar? Dos grandes fabricantes de modelos también lo hacen). Los resultados de la búsqueda se escriben primero en el sistema de archivos y luego se recuperan según sea necesario. Escriba todas las indicaciones, descripciones de herramientas, hojas de ruta y procesos de pensamiento en un archivo. El agente puede realizar operaciones CRUD por sí solo. Este sentimiento es muy familiar. En la era anterior a Internet, cuando la arquitectura alcanzaba el nivel de sistema, todos llegaban finalmente a la misma conclusión. Ya se trate de subprocesos de contexto, bloc de notas o gestión del ciclo de vida de Manus, Sigue siendo el sistema de archivos de LangChain primero, agentes modulares y contexto perezoso. Al final, todos apuntan a una misma frase: Contexto ≠ Ventana de token. Contexto = Estado externalizado + Mecanismo de programación + Estructura mantenible. No importa cuán grande sea el modelo, al final todo se reduce a una cuestión de ingeniería, al menos por ahora.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.