主流AI 應用如何處理「記憶」? · ChatGPT:全量注入與輕量摘要- 更貼心的伙伴· Claude:按需檢索與工具調用- 更得力的助手 @manthanguptaa 透過「逆向工程」深入研究了ChatGPT 和Claude 的記憶與情境管理機制,意外發現了兩種截然不同的方案:「預計算注入派」 (ChatGPT) 與「按需檢索工具派」 (Claude)。 ChatGPT 的記憶方案:全量注入與輕量摘要 ChatGPT 的核心邏輯是「每次對話都帶上你的背景和近期摘要」。它不依賴模型自己去「想」要不要查記憶,而是系統強制把相關資訊塞進每一次的Prompt 中。 核心架構(4層結構) 1. 會話元資料[暫時] · 內容:設備類型、瀏覽器、大概位置、時區、訂閱等級、甚至你的使用習慣(如平均對話深度、常用模型)。 · 特點:一次性注入,會話結束即銷毀。它讓模型在當前對話中能根據你的環境(如由暗黑模式、螢幕大小)調整回答,但不會存入長期記憶。 2. 使用者記憶[長期] · 內容:明確的事實。例如「我叫Manthan」、「我是程式設計師」、「我不喜歡吃香菜」。 · 機制:有一個專門的工具來增刪改。如果你說“記得我叫X”,它會存下來。系統也會根據對話自動捕捉關鍵事實並請求儲存。 · 使用:這些事實會作為由系統維護的“檔案”,每一次對話都會被完整地註入到Prompt 裡。 3. 近期對話摘要[跨會話] · 內容:這是ChatGPT 最獨特的地方。它不會去檢索過去的完整對話,而是預先計算好最近10-15 場對話的輕量級摘要(格式如:時間戳: 標題|| 使用者說的片段)。 · 特點:只包含使用者的發言摘要,不包含AI 的回應。這就像一張“興趣地圖”,讓模型知道你最近在關心什麼,而不需要消耗大量Token 去讀以前的全文。 4. 目前會話視窗· 內容:目前對話的完整記錄,直到達到Token 上限。 Claude 的記憶方案:按需檢索與工具調用 Claude 的方案更像是「擁有搜尋引擎的各種專員」。它預設不帶以前的對話歷史,只有在你需要的時候,它才會去「翻舊帳」。 核心架構 1. 使用者記憶[長期] · 內容:與ChatGPT 類似,儲存關鍵事實(姓名、職業、偏好等)。 · 格式:以XML 格式(...)注入System Prompt 中。 · 機制:支援隱式後台更新和明確使用者編輯。 2. 目前會話· 內容:目前對話的完整記錄。 3. 歷史檢索工具[核心差異] · Claude 不會自動把之前的對話摘要塞進Prompt。相反,它配備了兩個專用工具,由模型自主決定何時調用: · conversation_search: 根據關鍵字或話題搜尋過去的對話。 · recent_chats: 按時間順序拉取最近的對話清單。 · 流程:使用者提問-> Claude 思考「我需要參考先前的對話嗎?」-> 如果需要-> 呼叫工具檢索-> 取得具體片段-> 回答使用者。 優缺點與使用場景 1. ChatGPT 優點: · 無縫銜接:體驗非常流暢,即使你話題跳躍,它也能透過摘要大概知道背景。 · 速度快:無需額外的搜尋步驟。 缺點: · 細節遺失:由於只存摘要,且只存使用者的發言摘要,它可能記不清上次它自己具體給出的代碼方案,只能記個大概。 · 幹擾風險:有時不相關的舊摘要可能會幹擾當前任務。 最佳場景: · 日常閒聊/陪伴:需要它記得你的瑣碎喜好。 · 多工並行:你同時在問很多不同的主題,需要它快速切換。 · 淺層連續性任務:例如“繼續上週那個故事”,它看一眼摘要就能接著編。 2. Claude 優點: · 高精準度:透過搜索,它可以找回幾個月前某次對話中具體的JSON 結構或特定的邏輯設定,而不是模糊的摘要。 · 上下文純淨:預設不載入無關歷史,不僅省Token,還能避免舊資訊的干擾。 缺點: · 不夠主動:如果模型判斷失誤,覺得“不需要查歷史”,它就會像失憶一樣回答你。 · 慢:工具呼叫需要時間。 最佳場景: · 長期專案開發:例如寫程式碼,“復用我上個月寫的那個鑑權模組”,它能搜出來具體的程式碼。 · 知識庫查詢:你需要它基於過去沉澱下來的大量筆記進行深度整合。 · 複雜邏輯任務:需要極高的上下文準確度,容不得模糊摘要。 補充對比角度:記憶的“解析度”與“可控性” 除了文章提到的,我認為還有兩個角度值得關注: 1. 記憶的解析度· ChatGPT 是「低保真」的縮圖:它看著最近10 次對話的縮圖在聊天。它知道大概輪廓,但看不清細節。 · Claude 是「高保真」的探照燈:它平時在黑暗中(不看歷史),但一旦打開探照燈(搜尋),它能照亮過去的某個具體角落,看得清清楚楚。 2. 開發者vs 使用者的視角· ChatGPT 的方案更像是一個成熟的「產品功能」:OpenAI 封裝得很好,對使用者不可見,體驗一致性強,目的是為了留存和活躍度。 · Claude 的方案更像是一個「智能體能力」:Anthropic 賦予了模型使用工具的能力,這更符合Agent 的發展方向——即模型不僅是聊天的,更是會使用工具(包括記憶工具)來解決問題的。這在未來處理超長上下文和海量知識庫時,上限會更高。 兩篇部落格原文
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
