LogoThread Easy
  • 探索
  • 撰写 Thread
LogoThread Easy

您的一体化 Twitter 线程助手

© 2025 Thread Easy All Rights Reserved.

探索

最新在前,按卡片方式浏览线程

开启时会模糊预览图,关闭后正常显示

[开源推荐] Claude-Mem: 为 Claude Code 设计的持久化记忆压缩系统

来自 @Claude_Memory,通过智能压缩和本地存储,能够记住之前的编程操作、决策和上下文,赋予 AI 跨会话的长期记忆能力并降低 Token 消耗,基于 @trychroma 向量数据库。

核心价值:解决“失忆”问题
通常情况下,当你结束与 AI 的对话或重启终端后,AI 会丢失之前所有的上下文。在长期开发项目中,这意味着你每次都需要重复向 AI 解释项目背景、技术栈选择或之前的代码改动。

Claude-mem 的作用:
· 持久化记忆:它会自动记录你在 Claude Code 中的操作轨迹。
· 自动回忆:当你开启新会话时,它会自动将之前的关键信息(如已修复的 Bug、项目结构变更、用户偏好)“注入”到新的上下文中。
· 无感运行:这一切都在后台自动完成,不需要用户手动维护记忆文件。

主要功能特性
· 智能压缩与摘要:它不是简单地保存所有聊天记录(那样会迅速消耗 Token 配额),而是利用 Claude Agent SDK 对操作进行语义压缩。它会将冗长的工具调用日志转化为精简的“语义摘要”,只保留核心信息。
· 跨会话上下文注入:新会话开始时,它会智能检索并加载相关的历史记忆,让 Claude 能够无缝接续工作。
· 自然语言搜索能力:你可以直接问 Claude:“我们上次做到了哪里?”或者“之前那个 Bug 是怎么修的?”,它会通过内置的搜索技能从记忆库中提取答案。
· 可视化管理界面:提供了一个本地 Web UI(通常在 localhost:37777),让你像浏览时间轴一样查看 AI 的记忆流,直观地看到它记住了什么。

技术原理
项目采用了一种模块化的架构来实现记忆的“读”与“写”:
· 捕获(Hooks):利用 Claude Code 的生命周期钩子,监听每一次工具调用(如读写文件、运行命令)。
· 处理(Worker):一个后台 Worker 进程会接收这些数据,并使用 AI 模型对其进行分析和总结。
· 存储(SQLite):处理后的数据被存入本地的 SQLite 数据库,支持高效的全文检索。
· 检索(Injection):在用户开启新任务时,系统会根据当前上下文,自动从数据库中调取最相关的信息并喂给 Claude。

为什么它很重要?
· 节省 Token 和金钱:通过压缩记忆,避免了重复发送大量的历史对话,直接降低了 API 调用成本(每次启动可节省约 2000+ token)。
· 提升开发效率:开发者不再需要充当“复读机”,AI 能更快进入状态,像一个真正熟悉项目的同事一样工作。
· 隐私与本地化:记忆数据存储在本地,用户拥有完全的控制权,可以通过配置过滤敏感信息(如 API Key)。

开源地址:

[开源推荐] Claude-Mem: 为 Claude Code 设计的持久化记忆压缩系统 来自 @Claude_Memory,通过智能压缩和本地存储,能够记住之前的编程操作、决策和上下文,赋予 AI 跨会话的长期记忆能力并降低 Token 消耗,基于 @trychroma 向量数据库。 核心价值:解决“失忆”问题 通常情况下,当你结束与 AI 的对话或重启终端后,AI 会丢失之前所有的上下文。在长期开发项目中,这意味着你每次都需要重复向 AI 解释项目背景、技术栈选择或之前的代码改动。 Claude-mem 的作用: · 持久化记忆:它会自动记录你在 Claude Code 中的操作轨迹。 · 自动回忆:当你开启新会话时,它会自动将之前的关键信息(如已修复的 Bug、项目结构变更、用户偏好)“注入”到新的上下文中。 · 无感运行:这一切都在后台自动完成,不需要用户手动维护记忆文件。 主要功能特性 · 智能压缩与摘要:它不是简单地保存所有聊天记录(那样会迅速消耗 Token 配额),而是利用 Claude Agent SDK 对操作进行语义压缩。它会将冗长的工具调用日志转化为精简的“语义摘要”,只保留核心信息。 · 跨会话上下文注入:新会话开始时,它会智能检索并加载相关的历史记忆,让 Claude 能够无缝接续工作。 · 自然语言搜索能力:你可以直接问 Claude:“我们上次做到了哪里?”或者“之前那个 Bug 是怎么修的?”,它会通过内置的搜索技能从记忆库中提取答案。 · 可视化管理界面:提供了一个本地 Web UI(通常在 localhost:37777),让你像浏览时间轴一样查看 AI 的记忆流,直观地看到它记住了什么。 技术原理 项目采用了一种模块化的架构来实现记忆的“读”与“写”: · 捕获(Hooks):利用 Claude Code 的生命周期钩子,监听每一次工具调用(如读写文件、运行命令)。 · 处理(Worker):一个后台 Worker 进程会接收这些数据,并使用 AI 模型对其进行分析和总结。 · 存储(SQLite):处理后的数据被存入本地的 SQLite 数据库,支持高效的全文检索。 · 检索(Injection):在用户开启新任务时,系统会根据当前上下文,自动从数据库中调取最相关的信息并喂给 Claude。 为什么它很重要? · 节省 Token 和金钱:通过压缩记忆,避免了重复发送大量的历史对话,直接降低了 API 调用成本(每次启动可节省约 2000+ token)。 · 提升开发效率:开发者不再需要充当“复读机”,AI 能更快进入状态,像一个真正熟悉项目的同事一样工作。 · 隐私与本地化:记忆数据存储在本地,用户拥有完全的控制权,可以通过配置过滤敏感信息(如 API Key)。 开源地址:

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Sat Dec 13 12:51:43
RT @SchmidhuberAI: The GOAT of tennis @DjokerNole said: "35 is the new 25.” I say: “60 is the new 35.” AI research has kept me strong and h…

RT @SchmidhuberAI: The GOAT of tennis @DjokerNole said: "35 is the new 25.” I say: “60 is the new 35.” AI research has kept me strong and h…

Invented principles of meta-learning (1987), GANs (1990), Transformers (1991), very deep learning (1991), etc. Our AI is used many billions of times every day.

avatar for Jürgen Schmidhuber
Jürgen Schmidhuber
Sat Dec 13 12:49:19
新视频上线——GPT-5.2 Thinking 被低估的新能力!自动搜索+排版,50分钟交付专家级PPT/Excel/PDF

它花 50 分钟帮我整完扫地机器人旗舰横评 PPT、自动下好各家品牌 Logo、丰富图表展示

又用 20 分钟做完 8 家人形机器人调研表,融资、技术路线、商业化全都有

还顺带把 GPT / Gemini / Claude 全系价格和来源查得明明白白。

值不值?怎么提问才不浪费时间?

完整视频:🧵

新视频上线——GPT-5.2 Thinking 被低估的新能力!自动搜索+排版,50分钟交付专家级PPT/Excel/PDF 它花 50 分钟帮我整完扫地机器人旗舰横评 PPT、自动下好各家品牌 Logo、丰富图表展示 又用 20 分钟做完 8 家人形机器人调研表,融资、技术路线、商业化全都有 还顺带把 GPT / Gemini / Claude 全系价格和来源查得明明白白。 值不值?怎么提问才不浪费时间? 完整视频:🧵

https://t.co/Ev6NPUFTjY

avatar for nicekate
nicekate
Sat Dec 13 12:46:59
Years ago I started learning Indonesian on Duolingo. My wife asked me why I was speaking like a 90-year old bapak bapak.

Years ago I started learning Indonesian on Duolingo. My wife asked me why I was speaking like a 90-year old bapak bapak.

Laying low

avatar for Danny Postma
Danny Postma
Sat Dec 13 12:39:49
RT @veryordinally: @pizzaninjas That’s awesome! For any π lovers out there, also check out this work with @skominers which includes the πxe…

RT @veryordinally: @pizzaninjas That’s awesome! For any π lovers out there, also check out this work with @skominers which includes the πxe…

Market Design/Entrepreneurship Professor @HarvardHBS & Faculty Affiliate @Harvard Economics; Research @a16zcrypto; Editor @restatjournal; Econ @Quora; … | #QED

avatar for Scott Kominers
Scott Kominers
Sat Dec 13 12:38:29
RT @allen_ai: Olmo 3.1 is here. We extended our strongest RL run and scaled our instruct recipe to 32B—releasing Olmo 3.1 Think 32B & Olmo…

RT @allen_ai: Olmo 3.1 is here. We extended our strongest RL run and scaled our instruct recipe to 32B—releasing Olmo 3.1 Think 32B & Olmo…

avatar for (AI)
(AI)
Sat Dec 13 12:33:41
  • Previous
  • 1
  • More pages
  • 827
  • 828
  • 829
  • More pages
  • 5634
  • Next