Oppo AI Agent 團隊新論文「O-Mem」:聚焦於AI 智能體在長期互動中的記憶 O-Mem 是一個創新的記憶框架,旨在透過模擬人類記憶機制,讓AI 智能體變得更像「自適應助手」:它能動態構建用戶畫像,支持長時序交互,並高效檢索相關信息,而非簡單堆積歷史記錄。 論文的核心觀點是,現有的AI 智能體記憶系統存在限制:它們容易忽略語義上不相關但關鍵的使用者訊息,並引入檢索雜訊。 O-Mem 透過「主動使用者畫像」來解決這些問題,將每個互動視為更新使用者模型的機會,從而實現更精準、經濟的記憶管理。 核心方法:O-Mem 框架 O-Mem 借鑒人類記憶結構,分為三個互補模組,形成一個全向記憶系統: · 人物記憶(Persona Memory):儲存使用者的長期屬性和事實,例如偏好、習慣或背景(如「使用者喜歡咖啡,但對咖啡因敏感」)。它使用LLM從互動中提取屬性,並透過「新增/忽略/更新」決策動態維護。屬性採用LLM增強的最近鄰聚類來處理重複,確保簡潔性。 · 工作記憶(Working Memory):依主題繪製互動記錄,幫助維持對話的主題連續性。例如,從目前查詢中檢索相關主題下的歷史片段。 · 情節記憶(Episodic Memory):透過關鍵字或線索(如「生日」)關聯過去事件,支持聯想式回憶。它使用逆文檔頻率評分來挑選最獨特的線索,避免常見單字的干擾。 記憶建構和檢索過程高效:對於新交互,LLM 提取主題、屬性和事件,更新字典映射。檢索時,三模組並行工作:工作記憶拉取話題相關內容,情節記憶選線索檢索,人物記憶匹配屬性。最終檢索結果融合後輸入LLM 產生回應。這種設計避免了全歷史掃描,減少了雜訊和計算開銷。 實驗結果與評估團隊在三個基準上測試O-Mem,證明其在性能和效率上的優勢: · LoCoMo 基準(長對話一致性):O-Mem 的F1 分數達51.67%,比LangMem 提升3%(48.72%),特別是在時序和多跳推理任務中表現出色。 · PERSONAMEM 基準(使用者-LLM 個人化對話):準確率62.99%,比A-Mem 提升3.5%(59.42%),在偏好追蹤和泛化能力上領先。 · 個人化深度研究基準(真實使用者查詢):使用者對齊度44.49%,比Mem0 高8%(36.43%)。 效率方面,O-Mem 顯著優於基線:token 消耗減少94%(1.5K vs. LangMem 80K),延遲縮短80%(2.4s vs. 10.8s),記憶體佔用僅3MB/用戶(vs. 30MB)。消融實驗顯示,每個模組獨立貢獻價值-例如,人物記憶模組能將檢索長度縮短77%,同時提升表現。在性能-效率上的Pareto 最優性,與直接檢索原始歷史(RAG)的權衡相當,但成本更低。 論文線上討論:
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
