ChatGPTメモリシステムの会話型リバースエンジニアリング分析❌ベクトルデータベースとRAGが完全に欠如している ✅ 代わりに、階層的で効率的な 4 レベルのコンテキスト構造になっています。 主な発見:予想よりもシンプル ChatGPTの「メモリ」は、ユーザーがこれまでに話したすべての単語を巨大なデータベースから検索するわけではありません。その代わりに、様々なレベルの情報を巧みに組み合わせることで、パーソナライゼーションと応答性/コストのバランスをうまく取っています。 ChatGPTコンテキストの4層構造 1. セッションメタデータ • 環境認識: デバイスの種類、おおよその位置、時間、サブスクリプションレベル、最近の使用習慣 (アクティビティ頻度など) が含まれます。 • 目的: 現在の環境(ダークモード、位置情報など)に合わせて返信内容を調整します。現在のセッションのみ有効で、保存されません。 2. ユーザー メモリ バンク - 長期的なコア ファクト: 名前、職業、好み、長期目標などの重要な情報を保存します (著者の例では 33 項目が保存されています)。 • ソース: 明示的に「記憶する」よう指示した重要な情報、またはシステムが自動的に識別した重要な情報。削除されるまでセッションを超えて保持されます。 3. 最近の会話の要約と短期的な関心マップ:これが最も驚くべき部分です。完全な履歴ではありませんが、最近の会話約15件の簡潔な要約(タイムスタンプ、タイトル、ユーザーメッセージの断片を含む)が表示されます。 • 機能:履歴全体を読み込むことなく、AIに最近何に注目していたかを伝え、継続性を保ちます。時間の経過とともに更新されます。 4. 現在のセッションウィンドウとリアルタイムコンテキスト:現在の会話の完全な記録。「スライディングウィンドウ」メカニズムを採用しており、会話が長くなりすぎてトークン制限を超えると、最も古いメッセージが「押し出されます」。 • 機能: 現在の対話ロジックの厳密さと一貫性を確保します。会話が終了したり、過度に長くなったりすると、現在の状態がスクロールします。 このデザインはなぜこんなに巧妙なのでしょうか? • 効率が最優先: 従来の RAG では、クエリごとに膨大な量の履歴データを検索する必要があり、計算コストが高くなり、遅延も大幅に増加します。 • 全体像に焦点を当て、細かい点は気にしない: ChatGPT の戦略は、「重要な事実を覚えておく (レベル 2)、最近のトピックの概要を理解する (レベル 3)、現在の会話の詳細に焦点を当てる (レベル 4)」ことです。 • エンジニアリング哲学の体現:これは実用的なエンジニアリング設計です。過去のあらゆる細部の完全な記憶を犠牲にして、非常にスムーズで高速、そして一見「直感的」なインタラクティブ体験を実現しています。 要約 ChatGPTは、まるで「優れた記憶力」を持っているかのような錯覚に陥らせます。それは、2年前にあなたが言った些細なことを実際に覚えているからではなく、あなたに関する「コアファイル」(長期記憶)と「最近のアクティビティ概要」(会話の要約)を常に保持しているからです。これは、極めて効率的な「疑似全知」体験と言えるでしょう。 オリジナル記事を読む(@manthanguptaa)
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
