开启时会模糊预览图,关闭后正常显示

Marketer, self-taught developer, and founder of @Bento and https://t.co/lcsIohchEv. Designing a quiet family life in 福岡, Japan. DMs open if you need email help 🌿


🌏 RCBI advisor & offshore services for HNWI, business owners with a focus on:🇨🇭🇲🇾🇰🇳🇵🇾🇻🇺🇳🇷🇵🇦🇱🇻🇦🇪🇭🇰 | Geopolitics | Healthy lifestyle


achieve ambition with intentionality, intensity, & integrity - @dxtipshq - @sveltesociety - @aidotengineer - @latentspacepod - @cognition + @smol_ai

![构建高效的生产级上下文感知多智能体框架
Google 官方这篇博客深入探讨了在开发复杂的 AI 智能体时,如何通过 系统化的“上下文工程” 来解决由于信息量爆炸带来的性能瓶颈,以 Google ADK 为例,提出了一套全新的架构设计理念。
核心挑战:上下文瓶颈
随着智能体处理的任务越来越复杂(如长期工作流、深度研究、代码维护),它们需要跟踪的信息量呈指数级增长。仅仅依靠扩大模型的“上下文窗口”并非长久之计,面临三大压力:
· 成本与延迟:上下文越长,推理成本越高,响应速度越慢。
· 信号衰减:大量无关的日志或过时信息会导致模型“迷失”,无法抓取关键指令(Lost in the middle)。
· 物理限制:真实场景中的数据量(如 RAG 检索结果、完整对话记录)最终总会溢出任何固定的窗口限制。
核心理念:上下文即“编译视图”
文章提出了一个根本性的思维转变:不要把上下文看作是一个不断追加的字符串缓冲区,而应将其视为对底层状态的“编译视图”。
· 源数据 (Source):完整的会话记录、长期记忆和文件。
· 编译器 (Compiler):一系列的处理流程,负责过滤、排序和转换数据。
· 视图 (View):最终发送给 LLM 的“工作上下文”。
关键架构设计
A. 分层结构 (Structure: The Tiered Model)
ADK 将上下文数据分为四个层级,以分离“存储”与“展示”:
· 工作上下文 (Working Context):即时构建的、仅供本次调用使用的 Prompt。它是临时的、经过优化的。
· 会话 (Session):结构化的、持久的交互日志(包含用户消息、工具调用、错误信息等)。它是客观的“事实”。
· 记忆 (Memory):跨会话存在的长期知识(如用户偏好)。
· 制品 (Artifacts):大型数据对象(如 PDF、CSV、长日志)。它们只被引用(通过名称/版本),而不是直接粘贴进 Prompt。
B. 管道化处理 (Flows and Processors)
通过定义有序的“处理器链”,开发者可以像搭积木一样控制上下文的生成。例如:先做权限检查,再插入系统指令,最后插入经过压缩的历史记录。这让上下文的构建过程变得可观测、可测试。
C. 智能相关性管理 (Relevance)
为了保持上下文的“精简”,系统和智能体共同决定此时此刻需要什么信息:
· 按需加载制品:智能体默认只看到文件名的引用。只有当它确信需要查看内容时,才会调用工具将其临时加载进来。用完即丢,避免永久污染上下文。
· 主动/被动记忆检索:通过工具主动搜索或通过预处理器自动注入相关的长期记忆。
· 压缩与过滤:在会话层自动运行后台任务,将旧的详细日志“压缩”为摘要,或者直接按规则过滤掉无用的噪音。
D. 多智能体协作 (Multi-agent Context)
在多智能体系统中,为了防止“上下文爆炸”和幻觉,ADK 采用了严格的作用域控制:
· 按需交接:当主智能体调用子智能体时,默认不传递所有历史记录,只传递必要的指令和最少量的上下文。
· 叙事转换 (Narrative Casting):当切换智能体时,系统会将前一个智能体的“助手消息”转换为“叙事背景”(例如:“[背景信息]:智能体 A 刚才说了...”)。这防止了新智能体误以为之前的操作是自己做的,从而产生认知混乱。
总结
这篇文章的核心观点是:生产级的 AI 智能体开发,不能只靠“堆砌 Token”,而必须建立一套高效的上下文生命周期管理系统。
通过将上下文视为一个动态编译的、分层的、按需加载的系统,开发者可以构建出既聪明(拥有足够信息)又高效(低延迟、低成本)的智能体应用。
阅读原文 构建高效的生产级上下文感知多智能体框架
Google 官方这篇博客深入探讨了在开发复杂的 AI 智能体时,如何通过 系统化的“上下文工程” 来解决由于信息量爆炸带来的性能瓶颈,以 Google ADK 为例,提出了一套全新的架构设计理念。
核心挑战:上下文瓶颈
随着智能体处理的任务越来越复杂(如长期工作流、深度研究、代码维护),它们需要跟踪的信息量呈指数级增长。仅仅依靠扩大模型的“上下文窗口”并非长久之计,面临三大压力:
· 成本与延迟:上下文越长,推理成本越高,响应速度越慢。
· 信号衰减:大量无关的日志或过时信息会导致模型“迷失”,无法抓取关键指令(Lost in the middle)。
· 物理限制:真实场景中的数据量(如 RAG 检索结果、完整对话记录)最终总会溢出任何固定的窗口限制。
核心理念:上下文即“编译视图”
文章提出了一个根本性的思维转变:不要把上下文看作是一个不断追加的字符串缓冲区,而应将其视为对底层状态的“编译视图”。
· 源数据 (Source):完整的会话记录、长期记忆和文件。
· 编译器 (Compiler):一系列的处理流程,负责过滤、排序和转换数据。
· 视图 (View):最终发送给 LLM 的“工作上下文”。
关键架构设计
A. 分层结构 (Structure: The Tiered Model)
ADK 将上下文数据分为四个层级,以分离“存储”与“展示”:
· 工作上下文 (Working Context):即时构建的、仅供本次调用使用的 Prompt。它是临时的、经过优化的。
· 会话 (Session):结构化的、持久的交互日志(包含用户消息、工具调用、错误信息等)。它是客观的“事实”。
· 记忆 (Memory):跨会话存在的长期知识(如用户偏好)。
· 制品 (Artifacts):大型数据对象(如 PDF、CSV、长日志)。它们只被引用(通过名称/版本),而不是直接粘贴进 Prompt。
B. 管道化处理 (Flows and Processors)
通过定义有序的“处理器链”,开发者可以像搭积木一样控制上下文的生成。例如:先做权限检查,再插入系统指令,最后插入经过压缩的历史记录。这让上下文的构建过程变得可观测、可测试。
C. 智能相关性管理 (Relevance)
为了保持上下文的“精简”,系统和智能体共同决定此时此刻需要什么信息:
· 按需加载制品:智能体默认只看到文件名的引用。只有当它确信需要查看内容时,才会调用工具将其临时加载进来。用完即丢,避免永久污染上下文。
· 主动/被动记忆检索:通过工具主动搜索或通过预处理器自动注入相关的长期记忆。
· 压缩与过滤:在会话层自动运行后台任务,将旧的详细日志“压缩”为摘要,或者直接按规则过滤掉无用的噪音。
D. 多智能体协作 (Multi-agent Context)
在多智能体系统中,为了防止“上下文爆炸”和幻觉,ADK 采用了严格的作用域控制:
· 按需交接:当主智能体调用子智能体时,默认不传递所有历史记录,只传递必要的指令和最少量的上下文。
· 叙事转换 (Narrative Casting):当切换智能体时,系统会将前一个智能体的“助手消息”转换为“叙事背景”(例如:“[背景信息]:智能体 A 刚才说了...”)。这防止了新智能体误以为之前的操作是自己做的,从而产生认知混乱。
总结
这篇文章的核心观点是:生产级的 AI 智能体开发,不能只靠“堆砌 Token”,而必须建立一套高效的上下文生命周期管理系统。
通过将上下文视为一个动态编译的、分层的、按需加载的系统,开发者可以构建出既聪明(拥有足够信息)又高效(低延迟、低成本)的智能体应用。
阅读原文](/_next/image?url=https%3A%2F%2Fpbs.twimg.com%2Fmedia%2FG7hjHZXbYAApinw.jpg&w=3840&q=75)
邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴


🥑 Developer Advocate at @GitKraken 👨💻 Somewhat Senior Software Dev 📹 Twitch: https://t.co/heAWl9dFFl 📽️ YouTube: https://t.co/uWnKkyc09Q


聊硅基 AI,看有机 Orange。
