Keep on to blur preview images; turn off to show them clearly
![[开源推荐] Claude-Mem: 为 Claude Code 设计的持久化记忆压缩系统
来自 @Claude_Memory,通过智能压缩和本地存储,能够记住之前的编程操作、决策和上下文,赋予 AI 跨会话的长期记忆能力并降低 Token 消耗,基于 @trychroma 向量数据库。
核心价值:解决“失忆”问题
通常情况下,当你结束与 AI 的对话或重启终端后,AI 会丢失之前所有的上下文。在长期开发项目中,这意味着你每次都需要重复向 AI 解释项目背景、技术栈选择或之前的代码改动。
Claude-mem 的作用:
· 持久化记忆:它会自动记录你在 Claude Code 中的操作轨迹。
· 自动回忆:当你开启新会话时,它会自动将之前的关键信息(如已修复的 Bug、项目结构变更、用户偏好)“注入”到新的上下文中。
· 无感运行:这一切都在后台自动完成,不需要用户手动维护记忆文件。
主要功能特性
· 智能压缩与摘要:它不是简单地保存所有聊天记录(那样会迅速消耗 Token 配额),而是利用 Claude Agent SDK 对操作进行语义压缩。它会将冗长的工具调用日志转化为精简的“语义摘要”,只保留核心信息。
· 跨会话上下文注入:新会话开始时,它会智能检索并加载相关的历史记忆,让 Claude 能够无缝接续工作。
· 自然语言搜索能力:你可以直接问 Claude:“我们上次做到了哪里?”或者“之前那个 Bug 是怎么修的?”,它会通过内置的搜索技能从记忆库中提取答案。
· 可视化管理界面:提供了一个本地 Web UI(通常在 localhost:37777),让你像浏览时间轴一样查看 AI 的记忆流,直观地看到它记住了什么。
技术原理
项目采用了一种模块化的架构来实现记忆的“读”与“写”:
· 捕获(Hooks):利用 Claude Code 的生命周期钩子,监听每一次工具调用(如读写文件、运行命令)。
· 处理(Worker):一个后台 Worker 进程会接收这些数据,并使用 AI 模型对其进行分析和总结。
· 存储(SQLite):处理后的数据被存入本地的 SQLite 数据库,支持高效的全文检索。
· 检索(Injection):在用户开启新任务时,系统会根据当前上下文,自动从数据库中调取最相关的信息并喂给 Claude。
为什么它很重要?
· 节省 Token 和金钱:通过压缩记忆,避免了重复发送大量的历史对话,直接降低了 API 调用成本(每次启动可节省约 2000+ token)。
· 提升开发效率:开发者不再需要充当“复读机”,AI 能更快进入状态,像一个真正熟悉项目的同事一样工作。
· 隐私与本地化:记忆数据存储在本地,用户拥有完全的控制权,可以通过配置过滤敏感信息(如 API Key)。
开源地址: [开源推荐] Claude-Mem: 为 Claude Code 设计的持久化记忆压缩系统
来自 @Claude_Memory,通过智能压缩和本地存储,能够记住之前的编程操作、决策和上下文,赋予 AI 跨会话的长期记忆能力并降低 Token 消耗,基于 @trychroma 向量数据库。
核心价值:解决“失忆”问题
通常情况下,当你结束与 AI 的对话或重启终端后,AI 会丢失之前所有的上下文。在长期开发项目中,这意味着你每次都需要重复向 AI 解释项目背景、技术栈选择或之前的代码改动。
Claude-mem 的作用:
· 持久化记忆:它会自动记录你在 Claude Code 中的操作轨迹。
· 自动回忆:当你开启新会话时,它会自动将之前的关键信息(如已修复的 Bug、项目结构变更、用户偏好)“注入”到新的上下文中。
· 无感运行:这一切都在后台自动完成,不需要用户手动维护记忆文件。
主要功能特性
· 智能压缩与摘要:它不是简单地保存所有聊天记录(那样会迅速消耗 Token 配额),而是利用 Claude Agent SDK 对操作进行语义压缩。它会将冗长的工具调用日志转化为精简的“语义摘要”,只保留核心信息。
· 跨会话上下文注入:新会话开始时,它会智能检索并加载相关的历史记忆,让 Claude 能够无缝接续工作。
· 自然语言搜索能力:你可以直接问 Claude:“我们上次做到了哪里?”或者“之前那个 Bug 是怎么修的?”,它会通过内置的搜索技能从记忆库中提取答案。
· 可视化管理界面:提供了一个本地 Web UI(通常在 localhost:37777),让你像浏览时间轴一样查看 AI 的记忆流,直观地看到它记住了什么。
技术原理
项目采用了一种模块化的架构来实现记忆的“读”与“写”:
· 捕获(Hooks):利用 Claude Code 的生命周期钩子,监听每一次工具调用(如读写文件、运行命令)。
· 处理(Worker):一个后台 Worker 进程会接收这些数据,并使用 AI 模型对其进行分析和总结。
· 存储(SQLite):处理后的数据被存入本地的 SQLite 数据库,支持高效的全文检索。
· 检索(Injection):在用户开启新任务时,系统会根据当前上下文,自动从数据库中调取最相关的信息并喂给 Claude。
为什么它很重要?
· 节省 Token 和金钱:通过压缩记忆,避免了重复发送大量的历史对话,直接降低了 API 调用成本(每次启动可节省约 2000+ token)。
· 提升开发效率:开发者不再需要充当“复读机”,AI 能更快进入状态,像一个真正熟悉项目的同事一样工作。
· 隐私与本地化:记忆数据存储在本地,用户拥有完全的控制权,可以通过配置过滤敏感信息(如 API Key)。
开源地址:](/_next/image?url=https%3A%2F%2Fpbs.twimg.com%2Fmedia%2FG8DNs7jaIAA2whx.jpg&w=3840&q=75)
邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴


Invented principles of meta-learning (1987), GANs (1990), Transformers (1991), very deep learning (1991), etc. Our AI is used many billions of times every day.


https://t.co/Ev6NPUFTjY


Laying low


Market Design/Entrepreneurship Professor @HarvardHBS & Faculty Affiliate @Harvard Economics; Research @a16zcrypto; Editor @restatjournal; Econ @Quora; … | #QED


