[Recomendación de código abierto] Memori: Un motor de memoria nativo de SQL de código abierto diseñado específicamente para sistemas LLM, de agente y multiagente. Una sola línea de código (memori.enable()) proporciona almacenamiento de memoria persistente y consultable para cualquier LLM, lo que ayuda a los sistemas de IA a recordar conversaciones, aprender de las interacciones y mantener la continuidad contextual entre sesiones. Valores y características fundamentales La clave de Memori reside en simplificar la gestión de memoria de IA: almacena memorias en bases de datos SQL estándar (como SQLite, PostgreSQL, MySQL, Neon o Supabase), que son propiedad exclusiva del usuario y auditables por él. A diferencia del almacenamiento vectorial tradicional, Memori aprovecha el índice de búsqueda de texto completo de SQL para una recuperación eficiente, a la vez que garantiza la relevancia y la usabilidad de las memorias mediante la extracción inteligente de entidades, el mapeo de relaciones y la ordenación por prioridad. Las características principales incluyen: • Integración de una línea: perfectamente compatible con OpenAI, Anthropic, LiteLLM, LangChain, Azure OpenAI y más de 100 modelos compatibles con LiteLLM. • Procesamiento de memoria inteligente: extrae automáticamente entidades (como hechos, preferencias, habilidades, reglas y contexto) y las almacena en categorías. • Múltiples modos de memoria: • Consciente: Una inyección única de recuerdos clave. • Modo automático (Auto): busca dinámicamente memorias relevantes en función de la consulta. • Modo combinado: los dos se utilizan juntos. • Optimización de fondo: el agente inteligente consciente se ejecuta cada 6 horas para extraer recuerdos clave del almacenamiento a largo plazo y almacenarlos en el almacenamiento a corto plazo, lo que garantiza la capacidad de "aprendizaje a largo plazo" de la IA. • Ecosistema integrado: admite marcos como AgentOps, AutoGen, CrewAI y Swarms, con demostraciones interactivas ya disponibles, como un asistente de diario personal y un agente de investigación. Principio de funcionamiento Memori emplea una arquitectura de interceptor, que envuelve de forma transparente el flujo de llamadas LLM: 1. Fase de preinvocación (inyección de contexto): antes de que el LLM genere una respuesta, el agente recuperado o el agente consciente extrae memorias relevantes de la base de datos SQL y las inyecta en el indicador. 2. Fase posterior a la llamada (grabación y recuperación): después de que se devuelve la respuesta, el agente de memoria analiza el diálogo, extrae y clasifica nueva información y la almacena en la base de datos. 3. Procesamiento en segundo plano: el agente de conciencia se ejecuta periódicamente para analizar patrones y optimizar las prioridades de memoria. Todo el sistema se basa en cuatro componentes principales: el interceptor Memori (que coordina la invocación), el agente de recuperación/conciencia/memoria (que procesa los datos) y la base de datos SQL (almacenamiento persistente). Este diseño modular garantiza la eficiencia y la escalabilidad. Dirección de código abierto:
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.
![[Recomendación de código abierto] Memori: Un motor de memoria nativo de SQL de código abierto diseñado específicamente p](https://pbs.twimg.com/media/G6hrrSlaYAE-q0O.jpg)