[オープンソース推奨] Memori: LLM、エージェント、マルチエージェントシステム向けに特別に設計されたオープンソースのSQLネイティブメモリエンジンです。memori.enable() というたった1行のコードで、あらゆるLLMに永続的かつクエリ可能なメモリストレージを提供し、AIシステムが会話を記憶し、インタラクションから学習し、セッション間でコンテキストの連続性を維持するのに役立ちます。 コアバリューと特徴 Memoriの核心は、AIメモリ管理の簡素化にあります。Memoriは、ユーザーが完全に所有し、監査可能な標準SQLデータベース(SQLite、PostgreSQL、MySQL、Neon、Supabaseなど)にメモリを保存します。従来のベクトルストレージとは異なり、MemoriはSQLの全文検索インデックスを活用して効率的な検索を実現するとともに、インテリジェントなエンティティ抽出、関係のマッピング、優先度ソートによってメモリの関連性と使いやすさを確保します。 主な機能は次のとおりです。 • ワンライン統合: OpenAI、Anthropic、LiteLLM、LangChain、Azure OpenAI、および 100 を超える LiteLLM 対応モデルとシームレスに互換性があります。 • インテリジェントなメモリ処理: エンティティ (事実、好み、スキル、ルール、コンテキストなど) を自動的に抽出し、カテゴリに保存します。 • 複数のメモリモード: • 意識的: 重要な記憶を一度だけ注入します。 • 自動モード (自動): クエリに基づいて関連するメモリを動的に検索します。 • 組み合わせモード: 2 つを組み合わせて使用します。 • バックグラウンド最適化: 意識のあるインテリジェントエージェントは 6 時間ごとに実行され、長期ストレージから重要なメモリを抽出して短期ストレージに保存し、AI の「長期学習」能力を保証します。 • 統合エコシステム: AgentOps、AutoGen、CrewAI、Swarms などのフレームワークをサポートし、個人用日記アシスタントや研究者エージェントなどのインタラクティブなデモがすでに利用可能です。 動作原理 Memori はインターセプター アーキテクチャを使用して、LLM コールフローを透過的にラップします。 1. 呼び出し前フェーズ (コンテキスト注入): LLM が応答を生成する前に、取得されたエージェントまたは意識のあるエージェントが SQL データベースから関連するメモリを取得し、プロンプトに注入します。 2. 通話後フェーズ(記録と検索):応答が返された後、メモリエージェントは対話を分析し、新しい情報を抽出して分類し、データベースに保存します。 3. バックグラウンド処理: 意識エージェントは定期的に実行され、パターンを分析してメモリの優先順位を最適化します。 システム全体は、Memoriインターセプター(呼び出しの調整)、検索/意識/記憶エージェント(データ処理)、SQLデータベース(永続ストレージ)という4つのコアコンポーネントで構成されています。このモジュール設計により、効率性と拡張性が確保されています。 オープンソースアドレス:
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
![[オープンソース推奨] Memori: LLM、エージェント、マルチエージェントシステム向けに特別に設計されたオープンソースのSQLネイティブメモリエンジンです。memori.enable() というたった1行のコードで、あらゆるLLMに永](https://pbs.twimg.com/media/G6hrrSlaYAE-q0O.jpg)