Lavagem Cerebral em Seu Agente Inteligente: Como Mantemos a Memória Limpa Da equipe @CamelAIOrg, o foco está na engenharia de contexto, que melhora o desempenho e a eficiência dos agentes otimizando o gerenciamento de memória. O autor @Hesamation enfatiza que os agentes não "esquecem" de fato, mas sim sofrem com um gerenciamento de contexto ineficaz. Os desenvolvedores podem influenciar significativamente o nível de "inteligência" de um agente controlando seu contexto. Este artigo apresenta três técnicas no framework CAMEL para manter a memória "limpa": sumarização de contexto, memória de fluxo de trabalho e cache de saída de ferramentas. Esses métodos visam solucionar o problema de inchaço de contexto comumente encontrado por agentes ao processar tarefas, melhorando assim a eficiência e reduzindo custos. Por que o gerenciamento de memória é necessário? Problemas comuns no fluxo de trabalho de um agente incluem desvio de tarefas, trabalho repetitivo e sobrecarga de saída das ferramentas. Esses problemas podem fazer com que a janela de contexto se encha rapidamente, consumindo grandes quantidades de tokens e tempo. Três tecnologias-chave 1. Resumo de Contexto: Retenção do Conteúdo Essencial. Problemas e Usos: Os agentes às vezes ficam presos em "tarefas secundárias", como se preocuparem demais com a depuração do banco de dados ao desenvolver um aplicativo de texto para emoji, causando atrasos na tarefa principal. Isso consome muitos recursos. • Condições de ativação: Quando o contexto utiliza mais de 80% da janela; quando o contexto sai do controle e precisa ser reiniciado; ou quando uma sessão antiga é referenciada em uma nova sessão. • Implementação CAMEL: Oferece três métodos — sumarização automática baseada em limites de tokens, chamadas manuais à API e sumarização usando um conjunto de ferramentas disponível para o agente. O processo de sumarização depende de prompts cuidadosamente elaborados para extrair informações importantes, como as solicitações principais do usuário, as tarefas restantes e o progresso atual. Simultaneamente, retém o mínimo de mensagens do usuário possível para reduzir a dependência da sumarização do LLM e evitar possíveis imprecisões. Benefícios: Ajuda o agente a recuperar o foco rapidamente e reduz as distrações causadas por detalhes irrelevantes. 2. Memória de Fluxo de Trabalho: Aprendendo com a experiência passada. Problemas e usos: Os agentes frequentemente repetem esforços em tarefas repetitivas, como compilar uma lista de livros gratuitos sobre aprendizado de máquina, onde o acesso ao archive.org precisa ser resolvido a cada vez, mas a experiência não pode ser retida. • Design principal: A memória do fluxo de trabalho é um resumo estruturado de tarefas anteriores, incluindo título da tarefa (breve e geral), descrição da tarefa (resumo dos objetivos do usuário, sem detalhes de implementação), etapas da solução (ações gerais numeradas), lista de ferramentas (descrição de uso), estratégia de recuperação de falhas (opcional), observações (opcional) e etiquetas (3 a 10, para classificação e correspondência). • Mecanismo de carregamento: Os desenvolvedores podem especificar uma sessão ou carregar arquivos com base nas funções do agente; os agentes selecionam os N mais relevantes da lista de fluxo de trabalho (evite usar RAG para manter a simplicidade). • Aplicações em pesquisa: O artigo menciona que o método melhora significativamente o desempenho em tarefas de navegação em redes e cita artigos relevantes. Benefícios: Permite que agentes inteligentes reutilizem experiências e melhora a eficiência de tarefas repetitivas. 3. Cache de Saída de Ferramentas: Um Alerta • Problemas e Usos: A saída de ferramentas (como resultados de busca na web ou conteúdo de arquivos) costuma ser extensa (por exemplo, um resultado de busca com 4250 caracteres), e mantê-la no contexto por um longo período pode levar a um crescimento explosivo de tokens. • Implementação em CAMEL: Monitora a saída que excede 2000 caracteres, armazena a saída mais antiga em um arquivo externo (como Markdown) e retém apenas o ID de referência e a pré-visualização (primeiros 160 caracteres) dentro do contexto. Fornece comandos para recuperar a saída completa. Desafios e Riscos: Embora economize tokens, pode levar à perda de informações (o agente depende de pré-visualizações e ignora detalhes) e ao aumento da carga cognitiva (exigindo rastreamento de IDs e a determinação de se devem ser recuperados). O artigo considera essa prática uma tentativa de equilibrar eficiência e precisão, e ela foi revertida no CAMEL, necessitando de otimizações adicionais. Benefícios e advertências: Adequado para lidar com alta produção, mas recomenda-se cautela para evitar a degradação do desempenho.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.
