[Artigo Recomendado] Compreendendo os Mecanismos de Memória em Agentes de IA A publicação mais recente de Leonie Monigatti, "Making Sense of Memory in AI Agents" (Entendendo a Memória em Agentes de IA), descreve sistematicamente os principais conceitos, classificações, métodos de gerenciamento e desafios dos sistemas de memória de agentes de IA atuais. Como os LLMs (Modelos de Memória de Longo Prazo) são inerentemente "sem estado", eles não conseguem se lembrar naturalmente de interações históricas entre sessões. Portanto, os desenvolvedores precisam construir capacidades de "memória" para os agentes por meio de mecanismos externos, permitindo que eles aprendam as preferências do usuário, acumulem experiência e melhorem continuamente. O que é a memória de um agente inteligente? • Definição Essencial: A memória do agente refere-se à capacidade de um agente lembrar, recuperar e esquecer informações importantes em múltiplas interações com o usuário. Não se trata apenas de salvar registros de bate-papo, mas também de permitir que o agente "aprenda" e "se adapte". Por que a memória é necessária? O LLM só armazena o conhecimento adquirido durante o treinamento (conhecimento de parâmetros), e cada conversa começa do zero por padrão. Se informações históricas não forem inseridas manualmente, o agente "esquecerá" e não conseguirá fornecer serviços personalizados e coerentes. Principais distinções: • “Memória” refere-se a todo o sistema de capacidades para armazenar e recuperar informações. • O local de armazenamento é chamado de "módulo de memória", que armazena "informações", não "memórias". • Memória do agente: refere-se à capacidade de fornecer memória a um agente inteligente. • Memória Agencial: O próprio sistema de memória também pode se autogerenciar (por exemplo, um agente pode acessar sua própria memória por meio de ferramentas). Duas perspectivas principais de classificação da memória 1. Classificação baseada em arquitetura cognitiva (imitando a memória humana, conforme o artigo CoALA e a arquitetura SOAR) • Memória de trabalho: Armazena o conteúdo da janela de contexto atual, que é equivalente a uma conversa humana em andamento, como as instruções do usuário e as respostas do agente na sessão atual. • Memória Semântica: Armazena conhecimento factual, semelhante ao conhecimento imutável que os humanos aprendem na escola, como informações fixas como "o usuário tem um cachorro chamado Henry" ou "o aniversário do usuário é 15 de agosto". • Memória procedural: Armazena habilidades, regras e instintos, semelhante às ações que os humanos aprendem a fazer, como andar de bicicleta, sem precisar pensar nelas. Exemplos incluem regras comportamentais pré-programadas em instruções do sistema, como "Você deve pensar antes de responder a uma pergunta" ou "Siga um formato específico ao usar uma ferramenta". • Memória procedural: Armazena habilidades, regras e instintos, semelhantes a ações que os humanos não precisam mais pensar depois de aprenderem a andar de bicicleta. Exemplos incluem regras comportamentais fixas codificadas em instruções do sistema, como "Você deve pensar antes de responder a uma pergunta" ou "Você deve seguir um formato específico ao usar uma ferramenta". 2. Classificação baseada em padrões de projeto (framework Letta, que se concentra mais na implementação de engenharia) Letta acreditava que o antropomorfismo excessivo era prejudicial à implementação da engenharia e, portanto, adotou uma abordagem mais pragmática para a classificação: • Buffer de mensagens: A mensagem mais recente na sessão atual (curto prazo, dentro do contexto). • Memória Central: Informações-chave mantidas ativamente pelo agente (inclusive dentro do contexto, como a data de nascimento do usuário ou o nome do parceiro). • Memória de Recuperação: O histórico original completo da conversa (geralmente armazenado externamente). • Memória de Arquivo: O conhecimento extraído explicitamente é armazenado em armazenamento externo, como bancos de dados vetoriais (longo prazo). A correspondência entre as duas categorias: • A memória de trabalho do CoALA é aproximadamente igual ao buffer de mensagens e à memória principal do Letta. • A memória de longo prazo do CoALA (semântica/enredo/procedimento) corresponde em grande parte à memória arquivada do Letta. • O Letta possui uma distinção adicional para o "histórico de diálogo original" (memória de recuperação), que o CoALA não lista separadamente. Gerenciamento de memória: como armazenar, recuperar, atualizar e esquecer? 1. Gerenciamento de janelas definido pelo contexto (memória de curto prazo) • Problema: Quanto mais longa a conversa, mais tokens são gerados → velocidade mais lenta, custo mais alto e maior facilidade de inclusão de informações irrelevantes. • Técnicas comuns: Eliminar manualmente as mensagens antigas e resumir regularmente o histórico (mantendo apenas o resumo). 2. Gerenciamento de armazenamento externo (memória de longo prazo) Operações principais (ADICIONAR / ATUALIZAR / EXCLUIR / SEM OPÇÃO): • Adicionar novas informações • Atualizar informações desatualizadas (por exemplo, se um usuário mudou de endereço) • Apagar informações inúteis/errôneas (para evitar sobrecarga de memória) Nenhuma operação necessária. 3. Contexto ↔ Mecanismo de Fluxo de Armazenamento Externo: Memória Explícita (Caminho Quente): O agente determina em tempo real quais informações são importantes e as grava na memória de longo prazo usando suas próprias ferramentas (semelhante à capacidade humana de se lembrar conscientemente de algo). Isso é difícil de implementar e tem baixa confiabilidade. Memória implícita (processamento em segundo plano): Atualiza-se periodicamente de acordo com regras fixas, oferecendo maior controle. Cenários comuns: • Processamento em lote após o término da sessão. • Processamento em intervalos/rodadas fixos. • Processamento imediato após cada rodada de diálogo (alta exigência de tempo real). Métodos e desafios de implementação: Local de armazenamento: Utilize uma lista para a conversa atual, um arquivo de texto para instruções e um banco de dados vetorial ou gráfico para conhecimento a longo prazo. • Principais desafios: • Latência: Cada operação de leitura/gravação diminui a velocidade de resposta. • Mecanismo de esquecimento: A parte mais difícil – como identificar e excluir automaticamente informações desatualizadas? Se não for feito corretamente, levará à expansão ilimitada da memória e a uma queda na qualidade dos dados. • Estrutura existente: • Memória focada: mem0, Letta, Cognee, Zep • Frameworks de agentes inteligentes de propósito geral (com suporte a memória): LangChain/LangGraph, LlamaIndex, CrewAI, Google ADK Principais conclusões e implicações 1. Os LLMs nascem sem memória e precisam de um sistema de memória externo para se tornarem agentes verdadeiramente "inteligentes". 2. Atualmente, existem duas abordagens para o projeto de memória: antropomorfismo (estilo CoALA) e engenharia (estilo Letta), que podem ser combinadas no futuro. 3. Os desafios técnicos mais críticos residem no "fluxo inteligente de informações entre a memória de curto prazo e a de longo prazo" e no "esquecimento automático confiável". 4. Este campo está em um período de rápido desenvolvimento e atraiu muito capital e projetos de código aberto. Espera-se que soluções mais maduras surjam em 2026. Endereço do blog:
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.
![[Artigo Recomendado] Compreendendo os Mecanismos de Memória em Agentes de IA
A publicação mais recente de Leonie Monig](https://pbs.twimg.com/media/G6PZArJbsAAu9LI.jpg)