[Recommandation Open Source] Memori : un moteur de mémoire SQL natif open source conçu spécifiquement pour les systèmes LLM, d’agents et multi-agents. Une simple ligne de code, `memori.enable()`, fournit un stockage en mémoire persistant et interrogeable pour tout LLM, permettant aux systèmes d’IA de se souvenir des conversations, d’apprendre des interactions et de maintenir la continuité contextuelle entre les sessions. Valeurs et caractéristiques fondamentales Le principe de Memori repose sur la simplification de la gestion de la mémoire IA : les données sont stockées dans des bases de données SQL standard (telles que SQLite, PostgreSQL, MySQL, Neon ou Supabase), entièrement détenues et auditables par l’utilisateur. Contrairement au stockage vectoriel traditionnel, Memori exploite l’index de recherche plein texte de SQL pour une récupération efficace, tout en garantissant la pertinence et l’utilisabilité des données grâce à une extraction intelligente des entités, la mise en correspondance des relations et un tri par priorité. Les principales caractéristiques sont les suivantes : • Intégration en une seule ligne : Compatible de manière transparente avec OpenAI, Anthropic, LiteLLM, LangChain, Azure OpenAI et plus de 100 modèles pris en charge par LiteLLM. • Traitement intelligent de la mémoire : extrait automatiquement les entités (telles que les faits, les préférences, les compétences, les règles et le contexte) et les stocke dans des catégories. • Plusieurs modes de mémoire : • Conscient : Une injection unique de souvenirs clés. • Mode automatique (Auto) : Recherche dynamiquement les mémoires pertinentes en fonction de la requête. • Mode combiné : Les deux sont utilisés ensemble. • Optimisation en arrière-plan : L’agent intelligent conscient s’exécute toutes les 6 heures pour extraire les souvenirs clés du stockage à long terme et les stocker dans un stockage à court terme, garantissant ainsi la capacité d’« apprentissage à long terme » de l’IA. • Écosystème intégré : Prend en charge des frameworks tels que AgentOps, AutoGen, CrewAI et Swarms, avec des démos interactives déjà disponibles, comme un assistant de journal personnel et un agent de recherche. Principe de fonctionnement Memori utilise une architecture d'interception, encapsulant de manière transparente le flux d'appels LLM : 1. Phase de pré-invocation (injection de contexte) : Avant que le LLM ne génère une réponse, l'agent récupéré ou l'agent conscient extrait les souvenirs pertinents de la base de données SQL et les injecte dans l'invite. 2. Phase post-appel (enregistrement et récupération) : Une fois la réponse renvoyée, l'agent de mémoire analyse le dialogue, extrait et classe les nouvelles informations et les stocke dans la base de données. 3. Traitement en arrière-plan : L’agent de conscience s’exécute périodiquement pour analyser les modèles et optimiser les priorités de mémoire. Le système repose sur quatre composants essentiels : l’intercepteur Memori (coordination des invocations), l’agent de récupération/conscience/mémoire (traitement des données) et la base de données SQL (stockage persistant). Cette conception modulaire garantit efficacité et évolutivité. Adresse open source :
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
![[Recommandation Open Source] Memori : un moteur de mémoire SQL natif open source conçu spécifiquement pour les systèmes](https://pbs.twimg.com/media/G6hrrSlaYAE-q0O.jpg)