LogoThread Easy
  • 探索
  • 線程創作
LogoThread Easy

Twitter 線程的一站式夥伴

© 2025 Thread Easy All Rights Reserved.

探索

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

The Anthropic Fellows program provides funding and mentorship for a small cohort of AI safety researchers. 

Here are four exciting papers that our Fellows have recently released.

The Anthropic Fellows program provides funding and mentorship for a small cohort of AI safety researchers. Here are four exciting papers that our Fellows have recently released.

Stress-testing model specifications, led by Jifan Zhang. Generating thousands of scenarios that cause models to make difficult trade-offs helps to reveal their underlying preferences, and can help researchers iterate on model specifications.

avatar for Anthropic
Anthropic
Tue Nov 04 00:32:12
RT @arcprize: ARC Prize 2025 - Submissions Closed!

Thank you to the 1,495 teams that made 15,923 submissions

Final results depend on open…

RT @arcprize: ARC Prize 2025 - Submissions Closed! Thank you to the 1,495 teams that made 15,923 submissions Final results depend on open…

Co-founder @ndea. Co-founder @arcprize. Creator of Keras and ARC-AGI. Author of 'Deep Learning with Python'.

avatar for François Chollet
François Chollet
Tue Nov 04 00:28:49
Fentanyl is among the greatest silent wars ever waged against the American people. Proud of those who are doing everything they can to stop it.

Fentanyl is among the greatest silent wars ever waged against the American people. Proud of those who are doing everything they can to stop it.

Co-Founder, American Dynamism. General Partner @a16z. Catholic. Mother. American. 🇺🇸 🚀💪

avatar for Katherine Boyle
Katherine Boyle
Tue Nov 04 00:28:01
Chat just informed me that "#region" and "//MARK:" can be used to annotate the minimap in VS Code.

Chat just informed me that "#region" and "//MARK:" can be used to annotate the minimap in VS Code.

🥑 Developer Advocate at @GitKraken 👨‍💻 Somewhat Senior Software Dev 📹 Twitch: https://t.co/heAWl9dFFl 📽️ YouTube: https://t.co/uWnKkyc09Q

avatar for Chris Griffing
Chris Griffing
Tue Nov 04 00:27:33
Do I know anyone working at @bfl_ml? Still waiting for a reply to my sales inquiry.

Do I know anyone working at @bfl_ml? Still waiting for a reply to my sales inquiry.

Founder of https://t.co/reapzFhWNK, building the future of photography. - Learn SEO 👉 https://t.co/3MOusGyAAb

avatar for Danny Postma
Danny Postma
Tue Nov 04 00:26:05
RAG -> Agentic RAG -> Agent Memory

特别喜欢 @helloiamleonie 的博客,这篇探讨了 AI 系统中信息检索与存储机制的逐步升级,以一个简化的心理模型为基础,解释了从静态检索向动态记忆管理的转变,帮助读者理解 LLM 如何通过外部工具处理超出其上下文窗口的信息。这一演进的核心在于从“只读”操作转向“读写”能力,从而实现更个性化和自适应的 AI 智能体。

RAG:一次性只读检索的起点
首先回顾了 RAG,这是2020年提出、2023年流行起来的基础技术。RAG 通过外部向量数据库注入知识,解决 LLM “幻觉”问题。其流程分为两步:离线阶段将文档嵌入并存储;在线阶段根据查询检索相关上下文,并与提示结合生成响应。

例如,伪代码展示了其简洁性:
· 存储文档时,生成嵌入并存入数据库。
· 回答查询时,一次性检索 top-k 结果,注入提示中生成输出。

RAG 的优势在于高效减少幻觉,但局限明显:它是“一次性”解决方案,无法评估检索必要性或相关度;知识源单一,且无学习机制,无法从交互中迭代。这使得它适合简单问答,但不适用于复杂、连续对话场景。

Agentic RAG:工具调用下的动态只读
为了克服 RAG 的刚性,文章引入 Agentic RAG,将检索视为智能体可调用的“工具”。智能体不再被动检索,而是主动判断是否需要调用工具(如数据库搜索或网络查询),并评估结果的相关性。这引入了循环机制:LLM 生成响应,若需工具,则执行并反馈结果,直至无需工具。

伪代码中,智能体通过工具调用(如 SearchTool)实现动态检索,消息历史逐步积累。这提升了灵活性——智能体能选择合适工具,避免无关信息注入。但它仍停留在“只读”层面:信息仅在离线阶段存储,无法实时修改或个性化,无法从用户交互中“学习”。

智能体记忆:读写操作的突破
核心在于智能体记忆(Agent Memory),它将 Agentic RAG 扩展为读写系统。通过新增“写工具”(如 WriteTool),智能体不仅能检索,还能存储、更新或删除信息。这实现了从交互中学习的闭环:例如,记录用户偏好(如使用表情符号的习惯)或事件(如生日),并在后续对话中检索。

伪代码展示了这一循环:响应中若有写操作,则将信息存入数据库,反馈确认。这直接解决了前两者的痛点——动态存储支持实时适应,个性化检索提升用户体验。文章举例说明:智能体可存储对话摘要或原始历史,实现“记住”功能,而非仅“回忆”。

简化模型的局限与实际考量
Leonie 坦承,这一模型是简化的,未涵盖多源记忆(如程序性记忆:使用表情;情节记忆:用户旅行计划;语义记忆:事实知识)或高级管理策略(如 MemGPT 中的记忆合并与遗忘)。读写能力虽强大,但引入新风险,如记忆腐败(过时信息干扰)或管理负担。实际实现需结合事件检测、摘要生成等技术,确保可扩展性。

文章地址

RAG -> Agentic RAG -> Agent Memory 特别喜欢 @helloiamleonie 的博客,这篇探讨了 AI 系统中信息检索与存储机制的逐步升级,以一个简化的心理模型为基础,解释了从静态检索向动态记忆管理的转变,帮助读者理解 LLM 如何通过外部工具处理超出其上下文窗口的信息。这一演进的核心在于从“只读”操作转向“读写”能力,从而实现更个性化和自适应的 AI 智能体。 RAG:一次性只读检索的起点 首先回顾了 RAG,这是2020年提出、2023年流行起来的基础技术。RAG 通过外部向量数据库注入知识,解决 LLM “幻觉”问题。其流程分为两步:离线阶段将文档嵌入并存储;在线阶段根据查询检索相关上下文,并与提示结合生成响应。 例如,伪代码展示了其简洁性: · 存储文档时,生成嵌入并存入数据库。 · 回答查询时,一次性检索 top-k 结果,注入提示中生成输出。 RAG 的优势在于高效减少幻觉,但局限明显:它是“一次性”解决方案,无法评估检索必要性或相关度;知识源单一,且无学习机制,无法从交互中迭代。这使得它适合简单问答,但不适用于复杂、连续对话场景。 Agentic RAG:工具调用下的动态只读 为了克服 RAG 的刚性,文章引入 Agentic RAG,将检索视为智能体可调用的“工具”。智能体不再被动检索,而是主动判断是否需要调用工具(如数据库搜索或网络查询),并评估结果的相关性。这引入了循环机制:LLM 生成响应,若需工具,则执行并反馈结果,直至无需工具。 伪代码中,智能体通过工具调用(如 SearchTool)实现动态检索,消息历史逐步积累。这提升了灵活性——智能体能选择合适工具,避免无关信息注入。但它仍停留在“只读”层面:信息仅在离线阶段存储,无法实时修改或个性化,无法从用户交互中“学习”。 智能体记忆:读写操作的突破 核心在于智能体记忆(Agent Memory),它将 Agentic RAG 扩展为读写系统。通过新增“写工具”(如 WriteTool),智能体不仅能检索,还能存储、更新或删除信息。这实现了从交互中学习的闭环:例如,记录用户偏好(如使用表情符号的习惯)或事件(如生日),并在后续对话中检索。 伪代码展示了这一循环:响应中若有写操作,则将信息存入数据库,反馈确认。这直接解决了前两者的痛点——动态存储支持实时适应,个性化检索提升用户体验。文章举例说明:智能体可存储对话摘要或原始历史,实现“记住”功能,而非仅“回忆”。 简化模型的局限与实际考量 Leonie 坦承,这一模型是简化的,未涵盖多源记忆(如程序性记忆:使用表情;情节记忆:用户旅行计划;语义记忆:事实知识)或高级管理策略(如 MemGPT 中的记忆合并与遗忘)。读写能力虽强大,但引入新风险,如记忆腐败(过时信息干扰)或管理负担。实际实现需结合事件检测、摘要生成等技术,确保可扩展性。 文章地址

专注 - Context Engineering, AI(Coding)Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴 🔗 信息卡提示词 🔽

avatar for meng shao
meng shao
Tue Nov 04 00:25:55
  • Previous
  • 1
  • More pages
  • 3195
  • 3196
  • 3197
  • More pages
  • 4198
  • Next