Keep on to blur preview images; turn off to show them clearly

Building @SakanaAILabs 🧠


🇪🇺 https://t.co/NdorAWrhrB @euacc 📸 https://t.co/lAyoqmT9Hv $115K/m 🏡 https://t.co/1oqUgfDEsx $36K/m 🛰 https://t.co/ZHSvI2wRou $42K/m 🌍 https://t.co/UXK5AFra0o $14K/m 👙 https://t.co/RyXpqGvdBB $14K/m 💾 https://t.co/M1hEUBB6da $6K


喜欢摇滚乐、爱钓鱼的PM 网站:https://t.co/vnUpLt752o


The $10M Solopreneur | Helping 100,000+ experts turn their expertise into income.


~20 yrs in web-dev, now mostly Laravel. My Laravel courses: https://t.co/HRUAJdMRZL My Youtube channel: https://t.co/qPQAkaov2F

![主流 AI 应用如何处理「记忆」?
· ChatGPT:全量注入与轻量摘要 - 更贴心的伙伴
· Claude:按需检索与工具调用 - 更得力的助手
@manthanguptaa 通过「逆向工程」深入研究了 ChatGPT 和 Claude 的记忆与上下文管理机制,意外发现了两种截然不同的方案:“预计算注入派” (ChatGPT) 与 “按需检索工具派” (Claude)。
ChatGPT 的记忆方案:全量注入与轻量摘要
ChatGPT 的核心逻辑是 “每次对话都带上你的背景和近期摘要”。它不依赖模型自己去“想”要不要查记忆,而是系统强制把相关信息塞进每一次的 Prompt 中。
核心架构(4层结构)
1. 会话元数据 [临时]
· 内容:设备类型、浏览器、大概位置、时区、订阅等级、甚至你的使用习惯(如平均对话深度、常用模型)。
· 特点:一次性注入,会话结束即销毁。它让模型在当前对话中能根据你的环境(如由暗黑模式、屏幕大小)调整回答,但不会存入长期记忆。
2. 用户记忆 [长期]
· 内容:明确的事实。例如“我叫 Manthan”、“我是程序员”、“我不喜欢吃香菜”。
· 机制:有一个专门的工具来增删改。如果你说“记住我叫X”,它会存下来。系统也会根据对话自动捕捉关键事实并请求存储。
· 使用:这些事实会作为由系统维护的“档案”,每一次对话都会被完整地注入到 Prompt 里。
3. 近期对话摘要 [跨会话]
· 内容:这是 ChatGPT 最独特的地方。它不会去检索过去的完整对话,而是预先计算好最近 10-15 场对话的轻量级摘要(格式如:时间戳: 标题 || 用户说的片段)。
· 特点:只包含用户的发言摘要,不包含 AI 的回复。这就像一张“兴趣地图”,让模型知道你最近在关心什么,而不需要消耗大量 Token 去读以前的全文。
4. 当前会话窗口
· 内容:当前对话的完整记录,直到达到 Token 上限。
Claude 的记忆方案:按需检索与工具调用
Claude 的方案更像是一个 “拥有搜索引擎的各种专员”。它默认不带以前的对话历史,只有在你需要的时候,它才会去“翻旧账”。
核心架构
1. 用户记忆 [长期]
· 内容:与 ChatGPT 类似,存储关键事实(姓名、职业、偏好等)。
· 格式:以 XML 格式(<userMemories>...</userMemories>)注入到 System Prompt 中。
· 机制:支持隐式后台更新和显式用户编辑。
2. 当前会话
· 内容:当前对话的完整记录。
3. 历史检索工具 [核心差异]
· Claude 不会自动把之前的对话摘要塞进 Prompt。相反,它配备了两个专用工具,由模型自主决定何时调用:
· conversation_search: 根据关键词或话题搜索过去的对话。
· recent_chats: 按时间顺序拉取最近的对话列表。
· 流程:用户提问 -> Claude 思考“我需要参考以前的对话吗?” -> 如果需要 -> 调用工具检索 -> 获得具体片段 -> 回答用户。
优缺点与使用场景
1. ChatGPT
优点:
· 无缝衔接:体验非常流畅,哪怕你话题跳跃,它也能通过摘要大概知道背景。
· 速度快:无需额外的搜索步骤。
缺点:
· 细节丢失:由于只存摘要,且只存用户的发言摘要,它可能记不清上次它自己具体给出的代码方案,只能记个大概。
· 干扰风险:有时候不相关的旧摘要可能会干扰当前任务。
最佳场景:
· 日常闲聊/陪伴:需要它记得你的琐碎喜好。
· 多任务并行:你同时在问很多不同的话题,需要它快速切换。
· 浅层连续性任务:比如“继续上周那个故事”,它看一眼摘要就能接着编。
2. Claude
优点:
· 精准度高:通过搜索,它可以找回几个月前某次对话中具体的 JSON 结构或特定的逻辑设定,而不是模糊的摘要。
· 上下文纯净:默认不加载无关历史,不仅省 Token,还能避免旧信息的干扰。
缺点:
· 不够主动:如果模型判断失误,觉得“不需要查历史”,它就会像失忆一样回答你。
· 慢:工具调用需要时间。
最佳场景:
· 长期项目开发:比如写代码,“复用我上个月写的那个鉴权模块”,它能搜出来具体的代码。
· 知识库查询:你需要它基于过去沉淀下来的大量笔记进行深度整合。
· 复杂逻辑任务:需要极高的上下文准确度,容不得模糊摘要。
补充对比角度:记忆的“分辨率”与“可控性”
除了文章提到的,我认为还有两个角度值得关注:
1. 记忆的分辨率
· ChatGPT 是“低保真”的缩略图:它看着最近 10 次对话的缩略图在聊天。它知道大概轮廓,但看不清细节。
· Claude 是“高保真”的探照灯:它平时在黑暗中(不看历史),但一旦打开探照灯(搜索),它能照亮过去的某个具体角落,看得清清楚楚。
2. 开发者 vs 用户的视角
· ChatGPT 的方案更像是一个成熟的“产品功能”:OpenAI 封装得很好,对用户不可见,体验一致性强,目的是为了留存和活跃度。
· Claude 的方案更像是一个“智能体能力”:Anthropic 赋予了模型使用工具的能力,这更符合 Agent 的发展方向——即模型不仅是聊天的,更是会使用工具(包括记忆工具)来解决问题的。这在未来处理超长上下文和海量知识库时,上限会更高。
两篇博客原文 主流 AI 应用如何处理「记忆」?
· ChatGPT:全量注入与轻量摘要 - 更贴心的伙伴
· Claude:按需检索与工具调用 - 更得力的助手
@manthanguptaa 通过「逆向工程」深入研究了 ChatGPT 和 Claude 的记忆与上下文管理机制,意外发现了两种截然不同的方案:“预计算注入派” (ChatGPT) 与 “按需检索工具派” (Claude)。
ChatGPT 的记忆方案:全量注入与轻量摘要
ChatGPT 的核心逻辑是 “每次对话都带上你的背景和近期摘要”。它不依赖模型自己去“想”要不要查记忆,而是系统强制把相关信息塞进每一次的 Prompt 中。
核心架构(4层结构)
1. 会话元数据 [临时]
· 内容:设备类型、浏览器、大概位置、时区、订阅等级、甚至你的使用习惯(如平均对话深度、常用模型)。
· 特点:一次性注入,会话结束即销毁。它让模型在当前对话中能根据你的环境(如由暗黑模式、屏幕大小)调整回答,但不会存入长期记忆。
2. 用户记忆 [长期]
· 内容:明确的事实。例如“我叫 Manthan”、“我是程序员”、“我不喜欢吃香菜”。
· 机制:有一个专门的工具来增删改。如果你说“记住我叫X”,它会存下来。系统也会根据对话自动捕捉关键事实并请求存储。
· 使用:这些事实会作为由系统维护的“档案”,每一次对话都会被完整地注入到 Prompt 里。
3. 近期对话摘要 [跨会话]
· 内容:这是 ChatGPT 最独特的地方。它不会去检索过去的完整对话,而是预先计算好最近 10-15 场对话的轻量级摘要(格式如:时间戳: 标题 || 用户说的片段)。
· 特点:只包含用户的发言摘要,不包含 AI 的回复。这就像一张“兴趣地图”,让模型知道你最近在关心什么,而不需要消耗大量 Token 去读以前的全文。
4. 当前会话窗口
· 内容:当前对话的完整记录,直到达到 Token 上限。
Claude 的记忆方案:按需检索与工具调用
Claude 的方案更像是一个 “拥有搜索引擎的各种专员”。它默认不带以前的对话历史,只有在你需要的时候,它才会去“翻旧账”。
核心架构
1. 用户记忆 [长期]
· 内容:与 ChatGPT 类似,存储关键事实(姓名、职业、偏好等)。
· 格式:以 XML 格式(<userMemories>...</userMemories>)注入到 System Prompt 中。
· 机制:支持隐式后台更新和显式用户编辑。
2. 当前会话
· 内容:当前对话的完整记录。
3. 历史检索工具 [核心差异]
· Claude 不会自动把之前的对话摘要塞进 Prompt。相反,它配备了两个专用工具,由模型自主决定何时调用:
· conversation_search: 根据关键词或话题搜索过去的对话。
· recent_chats: 按时间顺序拉取最近的对话列表。
· 流程:用户提问 -> Claude 思考“我需要参考以前的对话吗?” -> 如果需要 -> 调用工具检索 -> 获得具体片段 -> 回答用户。
优缺点与使用场景
1. ChatGPT
优点:
· 无缝衔接:体验非常流畅,哪怕你话题跳跃,它也能通过摘要大概知道背景。
· 速度快:无需额外的搜索步骤。
缺点:
· 细节丢失:由于只存摘要,且只存用户的发言摘要,它可能记不清上次它自己具体给出的代码方案,只能记个大概。
· 干扰风险:有时候不相关的旧摘要可能会干扰当前任务。
最佳场景:
· 日常闲聊/陪伴:需要它记得你的琐碎喜好。
· 多任务并行:你同时在问很多不同的话题,需要它快速切换。
· 浅层连续性任务:比如“继续上周那个故事”,它看一眼摘要就能接着编。
2. Claude
优点:
· 精准度高:通过搜索,它可以找回几个月前某次对话中具体的 JSON 结构或特定的逻辑设定,而不是模糊的摘要。
· 上下文纯净:默认不加载无关历史,不仅省 Token,还能避免旧信息的干扰。
缺点:
· 不够主动:如果模型判断失误,觉得“不需要查历史”,它就会像失忆一样回答你。
· 慢:工具调用需要时间。
最佳场景:
· 长期项目开发:比如写代码,“复用我上个月写的那个鉴权模块”,它能搜出来具体的代码。
· 知识库查询:你需要它基于过去沉淀下来的大量笔记进行深度整合。
· 复杂逻辑任务:需要极高的上下文准确度,容不得模糊摘要。
补充对比角度:记忆的“分辨率”与“可控性”
除了文章提到的,我认为还有两个角度值得关注:
1. 记忆的分辨率
· ChatGPT 是“低保真”的缩略图:它看着最近 10 次对话的缩略图在聊天。它知道大概轮廓,但看不清细节。
· Claude 是“高保真”的探照灯:它平时在黑暗中(不看历史),但一旦打开探照灯(搜索),它能照亮过去的某个具体角落,看得清清楚楚。
2. 开发者 vs 用户的视角
· ChatGPT 的方案更像是一个成熟的“产品功能”:OpenAI 封装得很好,对用户不可见,体验一致性强,目的是为了留存和活跃度。
· Claude 的方案更像是一个“智能体能力”:Anthropic 赋予了模型使用工具的能力,这更符合 Agent 的发展方向——即模型不仅是聊天的,更是会使用工具(包括记忆工具)来解决问题的。这在未来处理超长上下文和海量知识库时,上限会更高。
两篇博客原文](/_next/image?url=https%3A%2F%2Fpbs.twimg.com%2Fmedia%2FG8IVYHsaAAA5DmF.jpg&w=3840&q=75)
邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴
