Keep on to blur preview images; turn off to show them clearly
Can subscribe here if you want it to show up in your podcast player: https://t.co/QdcmSyLECt


COO @GensynAI / ex @a16z @Cravath


I build stuff. On my way to making $1M 💰 My projects 👇


💡 挖掘开源的价值 🧑🏻💻 坚持分享 GitHub 上高质量、有趣、实用的教程、AI工具、前沿 AI 技术 🧐 A list cool, interesting projects of GitHub. ✏️ 公众号:GitHubDaily

![RT @shao__meng: [面试避坑] 01 - 面试中挖出真实的「企业文化」
一家公司的企业文化,在哪体现?在办公区墙上?卫生间隔间门上?抬头房顶悬挂上?办公软件开屏广告上?邮件签名上?都不是,甚至会「缺什么强调什么」!… RT @shao__meng: [面试避坑] 01 - 面试中挖出真实的「企业文化」
一家公司的企业文化,在哪体现?在办公区墙上?卫生间隔间门上?抬头房顶悬挂上?办公软件开屏广告上?邮件签名上?都不是,甚至会「缺什么强调什么」!…](/_next/image?url=https%3A%2F%2Fpbs.twimg.com%2Fmedia%2FG6hTWj6bIAAaTCG.jpg&w=3840&q=75)
邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

![[开源推荐] Memori:开源的 SQL 原生记忆引擎,专为 LLM、智能体、多智能体系统设计。一行代码 ——memori.enable() ——为任何 LLM 提供持久化、可查询的记忆存储,帮助 AI 系统记住对话、从交互中学习,并在会话间保持上下文连续性。
核心价值与特点
Memori 的核心在于简化 AI 记忆管理:它将记忆存储在标准 SQL 数据库(如 SQLite、PostgreSQL、MySQL、Neon 或 Supabase)中,这些数据库用户可完全拥有和审计。不同于传统向量存储,Memori 利用 SQL 的全文搜索索引实现高效检索,同时通过智能提取实体、映射关系和优先级排序,确保记忆的相关性和实用性。
关键特点包括:
· 一行集成:无缝兼容 OpenAI、Anthropic、LiteLLM、LangChain、Azure OpenAI,以及100多种 LiteLLM 支持的模型。
· 智能记忆处理:自动提取实体(如事实、偏好、技能、规则和上下文),并分类存储。
· 多种记忆模式:
· 意识模式(Conscious):一次性注入关键记忆。
· 自动模式(Auto):根据查询动态搜索相关记忆。
· 组合模式:二者结合使用。
· 后台优化:意识智能体每6小时运行一次,从长期存储中提炼关键记忆到短期存储,确保 AI 的“长期学习”能力。
· 集成生态:支持 AgentOps、AutoGen、CrewAI、Swarms 等框架,已有交互式演示如个人日记助手和研究者智能体。
工作原理
Memori 采用拦截器架构,透明包裹 LLM 调用流程:
1. 预调用阶段(上下文注入):在 LLM 生成响应前,检索智能体或意识智能体从 SQL 数据库中拉取相关记忆,并注入到提示中。
2. 后调用阶段(记录与提取):响应返回后,记忆智能体分析对话,提取并分类新信息,存入数据库。
3. 后台处理:定期运行意识智能体,分析模式并优化记忆优先级。
整个系统依赖四个核心组件:Memori 拦截器(协调调用)、检索/意识/记忆智能体(处理数据),以及 SQL 数据库(持久存储)。这种模块化设计确保了高效性和可扩展性。
开源地址: [开源推荐] Memori:开源的 SQL 原生记忆引擎,专为 LLM、智能体、多智能体系统设计。一行代码 ——memori.enable() ——为任何 LLM 提供持久化、可查询的记忆存储,帮助 AI 系统记住对话、从交互中学习,并在会话间保持上下文连续性。
核心价值与特点
Memori 的核心在于简化 AI 记忆管理:它将记忆存储在标准 SQL 数据库(如 SQLite、PostgreSQL、MySQL、Neon 或 Supabase)中,这些数据库用户可完全拥有和审计。不同于传统向量存储,Memori 利用 SQL 的全文搜索索引实现高效检索,同时通过智能提取实体、映射关系和优先级排序,确保记忆的相关性和实用性。
关键特点包括:
· 一行集成:无缝兼容 OpenAI、Anthropic、LiteLLM、LangChain、Azure OpenAI,以及100多种 LiteLLM 支持的模型。
· 智能记忆处理:自动提取实体(如事实、偏好、技能、规则和上下文),并分类存储。
· 多种记忆模式:
· 意识模式(Conscious):一次性注入关键记忆。
· 自动模式(Auto):根据查询动态搜索相关记忆。
· 组合模式:二者结合使用。
· 后台优化:意识智能体每6小时运行一次,从长期存储中提炼关键记忆到短期存储,确保 AI 的“长期学习”能力。
· 集成生态:支持 AgentOps、AutoGen、CrewAI、Swarms 等框架,已有交互式演示如个人日记助手和研究者智能体。
工作原理
Memori 采用拦截器架构,透明包裹 LLM 调用流程:
1. 预调用阶段(上下文注入):在 LLM 生成响应前,检索智能体或意识智能体从 SQL 数据库中拉取相关记忆,并注入到提示中。
2. 后调用阶段(记录与提取):响应返回后,记忆智能体分析对话,提取并分类新信息,存入数据库。
3. 后台处理:定期运行意识智能体,分析模式并优化记忆优先级。
整个系统依赖四个核心组件:Memori 拦截器(协调调用)、检索/意识/记忆智能体(处理数据),以及 SQL 数据库(持久存储)。这种模块化设计确保了高效性和可扩展性。
开源地址:](/_next/image?url=https%3A%2F%2Fpbs.twimg.com%2Fmedia%2FG6hrrSlaYAE-q0O.jpg&w=3840&q=75)
邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴
