Lavado de cerebro a tu agente inteligente: Cómo mantenemos la memoria limpia El equipo de @CamelAIOrg se centra en la ingeniería de contexto, que mejora el rendimiento y la eficiencia de los agentes al optimizar su gestión de memoria. El autor @Hesamation destaca que los agentes no "olvidan" realmente, sino que sufren de una gestión de contexto ineficaz. Los desarrolladores pueden influir significativamente en el nivel de "inteligencia" de un agente controlando su contexto. Este artículo presenta tres técnicas del marco CAMEL para mantener la memoria «limpia»: resumen de contexto, memoria de flujo de trabajo y almacenamiento en caché de la salida de las herramientas. Estos métodos buscan solucionar el problema de la sobrecarga de contexto que suelen experimentar los agentes al procesar tareas, mejorando así la eficiencia y reduciendo los costos. ¿Por qué es necesaria la gestión de memoria? Algunos problemas comunes en el flujo de trabajo de un agente incluyen el desvío de tareas, el trabajo repetitivo y la sobrecarga de la salida de las herramientas. Estos problemas pueden provocar que la ventana de contexto se llene rápidamente, consumiendo grandes cantidades de tokens y tiempo. Tres tecnologías clave 1. Resumen del contexto: Conservación del contenido principal. Problemas y usos: En ocasiones, los agentes se ven envueltos en tareas secundarias, como la excesiva depuración de la base de datos al desarrollar una aplicación de conversión de texto a emojis, lo que provoca retrasos en la tarea principal. Esto consume muchos recursos. • Condiciones desencadenantes: Cuando el contexto utiliza más del 80% de la ventana; cuando el contexto se desvía y necesita reiniciarse; o cuando se hace referencia a una sesión antigua en una sesión nueva. • Implementación de CAMEL: Ofrece tres métodos: resumen automático basado en umbrales de tokens, llamadas manuales a la API y resumen mediante un conjunto de herramientas disponible para el agente. El proceso de resumen se basa en indicaciones cuidadosamente diseñadas para extraer información clave, como las solicitudes principales del usuario, las tareas restantes y el progreso actual. Al mismo tiempo, conserva la mínima cantidad de mensajes del usuario para reducir la dependencia del resumen LLM y evitar posibles imprecisiones. Beneficios: Ayuda al agente a recuperar rápidamente la concentración y reduce las distracciones causadas por detalles irrelevantes. 2. Memoria de flujo de trabajo: Aprendizaje a partir de la experiencia pasada. Problemas y usos: Los agentes a menudo repiten esfuerzos en tareas repetitivas, como compilar una lista de libros gratuitos de aprendizaje automático, donde el acceso a archive.org debe resolverse cada vez, pero la experiencia no se puede retener. • Diseño principal: La memoria del flujo de trabajo es un resumen estructurado de tareas pasadas, que incluye el título de la tarea (breve y general), la descripción de la tarea (resumen de los objetivos del usuario, sin detalles de implementación), los pasos de la solución (acciones generales numeradas), la lista de herramientas (descripción de uso), la estrategia de recuperación de fallas (opcional), las observaciones de notas (opcional) y las etiquetas (de 3 a 10, para clasificación y coincidencia). • Mecanismo de carga: Los desarrolladores pueden especificar una sesión o cargar archivos según los roles de los agentes; los agentes seleccionan los N más relevantes de la lista de flujo de trabajo (evite usar RAG para simplificar). • Aplicaciones en investigación: El artículo menciona que el método mejora significativamente el rendimiento en tareas de navegación de redes y cita artículos relevantes. Beneficios: Permite a los agentes inteligentes reutilizar la experiencia y mejora la eficiencia de las tareas repetitivas. 3. Almacenamiento en caché de la salida de las herramientas: una advertencia • Problemas y usos: La salida de las herramientas (como los resultados de búsquedas web o el contenido de los archivos) suele ser extensa (por ejemplo, un resultado de búsqueda de 4250 caracteres), y mantenerla en el contexto durante mucho tiempo puede provocar un crecimiento explosivo de tokens. • Implementación en CAMEL: Supervisa la salida que supera los 2000 caracteres, almacena la salida anterior en un archivo externo (como Markdown) y conserva únicamente el ID de referencia y la vista previa (los primeros 160 caracteres) dentro del contexto. Proporciona comandos para recuperar la salida completa. Desafíos y riesgos: Si bien ahorra tokens, puede provocar pérdida de información (el agente se basa en vistas previas e ignora los detalles) y una mayor carga cognitiva (al requerir el seguimiento de la ID y determinar si se debe recuperar). El artículo lo considera un intento de equilibrar eficiencia y precisión, y se ha revertido en CAMEL, lo que exige una mayor optimización. Beneficios y advertencias: Adecuado para manejar altos volúmenes de producción, pero se recomienda precaución para evitar la degradación del rendimiento.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.
