[Recomendação de código aberto] Memori: Um mecanismo de memória nativo SQL de código aberto, projetado especificamente para sistemas LLM, agentes e multiagentes. Uma única linha de código — memori.enable() — fornece armazenamento de memória persistente e consultável para qualquer LLM, ajudando os sistemas de IA a lembrar conversas, aprender com interações e manter a continuidade contextual entre sessões. Valores e características fundamentais A essência do Memori reside na simplificação do gerenciamento de memória em IA: ele armazena memórias em bancos de dados SQL padrão (como SQLite, PostgreSQL, MySQL, Neon ou Supabase), que são totalmente controlados e auditáveis pelo usuário. Diferentemente do armazenamento vetorial tradicional, o Memori aproveita o índice de busca de texto completo do SQL para uma recuperação eficiente, garantindo a relevância e a usabilidade das memórias por meio da extração inteligente de entidades, mapeamento de relacionamentos e classificação por prioridade. As principais características incluem: • Integração simplificada: Compatível perfeitamente com OpenAI, Anthropic, LiteLLM, LangChain, Azure OpenAI e mais de 100 modelos suportados pelo LiteLLM. • Processamento inteligente de memória: Extrai automaticamente entidades (como fatos, preferências, habilidades, regras e contexto) e as armazena em categorias. • Vários modos de memória: • Consciente: Uma injeção única de memórias-chave. • Modo automático (Auto): Busca dinamicamente memórias relevantes com base na consulta. • Modo combinado: Os dois são usados em conjunto. • Otimização em segundo plano: O agente inteligente consciente é executado a cada 6 horas para extrair memórias importantes do armazenamento de longo prazo e armazená-las no armazenamento de curto prazo, garantindo a capacidade de "aprendizado a longo prazo" da IA. • Ecossistema integrado: Suporta frameworks como AgentOps, AutoGen, CrewAI e Swarms, com demonstrações interativas já disponíveis, como um assistente de diário pessoal e um agente pesquisador. Princípio de funcionamento Memori utiliza uma arquitetura de interceptação para encapsular de forma transparente o fluxo de chamadas LLM: 1. Fase de pré-invocação (injeção de contexto): Antes que o LLM gere uma resposta, o agente recuperado ou o agente consciente extrai memórias relevantes do banco de dados SQL e as injeta no prompt. 2. Fase pós-chamada (gravação e recuperação): Após o recebimento da resposta, o agente de memória analisa o diálogo, extrai e classifica novas informações e as armazena no banco de dados. 3. Processamento em segundo plano: O agente de consciência é executado periodicamente para analisar padrões e otimizar as prioridades de memória. Todo o sistema se baseia em quatro componentes principais: o interceptor Memori (coordenador de invocação), o agente de recuperação/consciência/memória (processador de dados) e o banco de dados SQL (armazenamento persistente). Esse design modular garante eficiência e escalabilidade. Endereço de código aberto:
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.
![[Recomendação de código aberto] Memori: Um mecanismo de memória nativo SQL de código aberto, projetado especificamente p](https://pbs.twimg.com/media/G6hrrSlaYAE-q0O.jpg)