LogoThread Easy
  • Explorar
  • Componer hilo
LogoThread Easy

Tu compañero integral para hilos de Twitter

© 2025 Thread Easy All Rights Reserved.

Explorar

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

RT @lovart_ai: 🎄Lovart Christmas Sale Is Here

Christmas Unlimited: Dec 20 – Dec 26 (UTC)

Holiday Special: Up to 60% OFF & 365 Days of Zer…

RT @lovart_ai: 🎄Lovart Christmas Sale Is Here Christmas Unlimited: Dec 20 – Dec 26 (UTC) Holiday Special: Up to 60% OFF & 365 Days of Zer…

AI research paper tweets, ML @Gradio (acq. by @HuggingFace 🤗) dm for promo ,submit papers here: https://t.co/UzmYN5XOCi

avatar for AK
AK
Sun Dec 21 14:01:03
RT @YuXiang_IRVL: I often get asked: How do I get into #robotics?

You’ll be ready if you go through these materials that I just finished w…

RT @YuXiang_IRVL: I often get asked: How do I get into #robotics? You’ll be ready if you go through these materials that I just finished w…

The sun shines for all beings.

avatar for Angel
Angel
Sun Dec 21 13:57:35
I am digging through some PyTorch code, and ... I have to say: The Nvidia profiling infrastructure is very much no good. Terrible UX, terrible at answering the questions I need answered.

Makes me pretty bullish about zymtrace.

I am digging through some PyTorch code, and ... I have to say: The Nvidia profiling infrastructure is very much no good. Terrible UX, terrible at answering the questions I need answered. Makes me pretty bullish about zymtrace.

Choose disfavour where obedience does not bring honour. I do math. And was once asked by R. Morris Sr. : "For whom?" @halvarflake@mastodon.social

avatar for Halvar Flake
Halvar Flake
Sun Dec 21 13:55:27
跟顶尖 AI 团队学「上下文工程」

通过「信息提纯、状态同步、动态剪裁、性能加速」四种手段打造具备「感知、筛选、精炼与持久化」能力的 AI Agent。

一、信息提纯:确保模型只接收高价值的背景信号
在上下文工程中,「信噪比」决定了 Agent 的推理上限。当模型面对海量代码库或长文档时,简单的 RAG 向量匹配已经无法满足需求。

1. 语义补全
Anthropic 和 Chroma 的研究指出,传统的片段检索会导致信息孤岛。上下文工程的核心在于「预处理」,即在存储每一个信息片段时,利用模型提前为其注入全局背景。例如,在索引一段代码时,上下文工程会强制加入其所属的项目架构信息,确保检索出来的内容自带「自解释性」。

2. 动态重排序
上下文工程不相信原始检索结果的排序。它强调在信息进入模型 Context 之前,必须经过一道「提纯」工序。通过轻量级模型对检索到的 Top-N 结果进行二次评估,剔除与当前指令逻辑无关的干扰项,从而防止模型在长文本中迷失。

二、 状态同步:将外部执行环境实时映射到模型认知
一个成熟的 Agent 不应该只生活在对话框里。上下文工程的第二个核心,是将「物理环境」实时映射到模型的认知中。
1. 实时系统镜像
Cline 和 Manus 的实践表明,上下文工程需要将文件树、终端输出、甚至当前的 UI 状态实时地编织进 Context 中。这意味着 Context 不再是静态的文本,而是一个动态更新的「仪表盘」。模型执行完一步操作后,环境反馈(成功、报错或输出结果)必须第一时间、以标准化的格式追随在 Context 末端。

2. 目标回响与任务锚定
在长路径任务中,模型容易产生「漂移」。优秀的上下文工程会在 Context 的关键位置(如对话末尾或系统提示词中)反复锚定当前的主线目标。这种技术被称为「目标回响」,它能确保模型在处理复杂的子任务时,始终记得最初的用户意图。

三、 动态剪裁:通过修剪冗余记忆来维持长效逻辑
上下文空间是昂贵的,且存在「上下文腐化」现象。随着对话轮数增加,早期的无用探索信息会干扰后续决策。

1. 自动化压缩与状态蒸馏
Ampcode 和 Cline 提倡一种「熵减」策略。当上下文接近预设阈值时,系统会自动触发「蒸馏」机制:将历史的琐碎细节进行逻辑总结,仅保留关键事实和最终结论。这种方式能将原本冗长的上下文通过「滑动总结」转化为精炼的记忆点。
2. 上下文分叉与任务隔离
针对复杂的问题,上下文工程会采取「分叉」策略。当主任务衍生出独立的子任务时,系统会克隆一个干净的上下文环境给子任务,只携带必要的全局变量,从而实现任务间的干扰隔离,防止不同逻辑线索在同一个 Context 窗口中相互碰撞。

四、 性能加速:利用缓存机制平衡响应速度与成本
最后是关于执行效能。上下文工程不仅要解决「准不准」的问题,还要解决「快不快」和「贵不贵」。

1. 提示词缓存
这是 Anthropic 等厂商近期推动的最核心工程化进步。在上下文工程中,大量的前置信息(如系统提示、项目基座代码、常用库文档)在不同轮次间是重复的。通过将这些「前缀内容」进行缓存,模型在处理新输入时无需重新计算重复部分的注意力权重。这不仅大幅缩短了首字生成的延迟,更直接降低了推理成本。

2. 极简线程与 KV 缓存复用
Manus 等团队强调「追加式」上下文。通过精心设计上下文的结构,使得每一轮新的交互都是在前一轮的基础上进行线性追加,而非重写。这种工程手段能最大限度地复用服务器端的 KV 缓存,让 Agent 在面对大规模代码库时,依然能保持毫秒级的响应反馈。

总结:上下文工程的终极目标
上下文工程的本质,是为 AI Agent 构建一套具备「感知、筛选、精炼与持久化」能力的动态内存系统。
· 提纯解决了「看什么」的问题。
· 同步解决了「看多广」的问题。
· 治理解决了「看多准」的问题。
· 效能解决了「看多快」的问题。

跟顶尖 AI 团队学「上下文工程」 通过「信息提纯、状态同步、动态剪裁、性能加速」四种手段打造具备「感知、筛选、精炼与持久化」能力的 AI Agent。 一、信息提纯:确保模型只接收高价值的背景信号 在上下文工程中,「信噪比」决定了 Agent 的推理上限。当模型面对海量代码库或长文档时,简单的 RAG 向量匹配已经无法满足需求。 1. 语义补全 Anthropic 和 Chroma 的研究指出,传统的片段检索会导致信息孤岛。上下文工程的核心在于「预处理」,即在存储每一个信息片段时,利用模型提前为其注入全局背景。例如,在索引一段代码时,上下文工程会强制加入其所属的项目架构信息,确保检索出来的内容自带「自解释性」。 2. 动态重排序 上下文工程不相信原始检索结果的排序。它强调在信息进入模型 Context 之前,必须经过一道「提纯」工序。通过轻量级模型对检索到的 Top-N 结果进行二次评估,剔除与当前指令逻辑无关的干扰项,从而防止模型在长文本中迷失。 二、 状态同步:将外部执行环境实时映射到模型认知 一个成熟的 Agent 不应该只生活在对话框里。上下文工程的第二个核心,是将「物理环境」实时映射到模型的认知中。 1. 实时系统镜像 Cline 和 Manus 的实践表明,上下文工程需要将文件树、终端输出、甚至当前的 UI 状态实时地编织进 Context 中。这意味着 Context 不再是静态的文本,而是一个动态更新的「仪表盘」。模型执行完一步操作后,环境反馈(成功、报错或输出结果)必须第一时间、以标准化的格式追随在 Context 末端。 2. 目标回响与任务锚定 在长路径任务中,模型容易产生「漂移」。优秀的上下文工程会在 Context 的关键位置(如对话末尾或系统提示词中)反复锚定当前的主线目标。这种技术被称为「目标回响」,它能确保模型在处理复杂的子任务时,始终记得最初的用户意图。 三、 动态剪裁:通过修剪冗余记忆来维持长效逻辑 上下文空间是昂贵的,且存在「上下文腐化」现象。随着对话轮数增加,早期的无用探索信息会干扰后续决策。 1. 自动化压缩与状态蒸馏 Ampcode 和 Cline 提倡一种「熵减」策略。当上下文接近预设阈值时,系统会自动触发「蒸馏」机制:将历史的琐碎细节进行逻辑总结,仅保留关键事实和最终结论。这种方式能将原本冗长的上下文通过「滑动总结」转化为精炼的记忆点。 2. 上下文分叉与任务隔离 针对复杂的问题,上下文工程会采取「分叉」策略。当主任务衍生出独立的子任务时,系统会克隆一个干净的上下文环境给子任务,只携带必要的全局变量,从而实现任务间的干扰隔离,防止不同逻辑线索在同一个 Context 窗口中相互碰撞。 四、 性能加速:利用缓存机制平衡响应速度与成本 最后是关于执行效能。上下文工程不仅要解决「准不准」的问题,还要解决「快不快」和「贵不贵」。 1. 提示词缓存 这是 Anthropic 等厂商近期推动的最核心工程化进步。在上下文工程中,大量的前置信息(如系统提示、项目基座代码、常用库文档)在不同轮次间是重复的。通过将这些「前缀内容」进行缓存,模型在处理新输入时无需重新计算重复部分的注意力权重。这不仅大幅缩短了首字生成的延迟,更直接降低了推理成本。 2. 极简线程与 KV 缓存复用 Manus 等团队强调「追加式」上下文。通过精心设计上下文的结构,使得每一轮新的交互都是在前一轮的基础上进行线性追加,而非重写。这种工程手段能最大限度地复用服务器端的 KV 缓存,让 Agent 在面对大规模代码库时,依然能保持毫秒级的响应反馈。 总结:上下文工程的终极目标 上下文工程的本质,是为 AI Agent 构建一套具备「感知、筛选、精炼与持久化」能力的动态内存系统。 · 提纯解决了「看什么」的问题。 · 同步解决了「看多广」的问题。 · 治理解决了「看多准」的问题。 · 效能解决了「看多快」的问题。

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Sun Dec 21 13:49:59
Startups are built by consistently executing small short term goals towards really large long term goals.

Startups are built by consistently executing small short term goals towards really large long term goals.

Founder and CEO of @acquiredotcom. https://t.co/wRMIssDmhl has helped 1000s of startups get acquired and facilitated $500m+ in closed deals.

avatar for Andrew Gazdecki
Andrew Gazdecki
Sun Dec 21 13:49:08
The server here is https://t.co/PK8625IwM3

You can register here for free 
https://t.co/JhIoiZm8Ry

And then register your AIM account here
https://t.co/Bj6Rrie9Cd

The server here is https://t.co/PK8625IwM3 You can register here for free https://t.co/JhIoiZm8Ry And then register your AIM account here https://t.co/Bj6Rrie9Cd

🇪🇺https://t.co/NdorAWqJC3 @euacc 📸https://t.co/lAyoqmSBRX $118K/m 🏡https://t.co/1oqUgfD6CZ $36K/m 🛰https://t.co/ZHSvI2wjyW $43K/m 🌍https://t.co/UXK5AFqCaQ $15K/m 👙https://t.co/RyXpqGuFM3 $14K/m 💾https://t.co/M1hEUBAynC $6K/m

avatar for @levelsio
@levelsio
Sun Dec 21 13:48:01
  • Previous
  • 1
  • More pages
  • 208
  • 209
  • 210
  • More pages
  • 5634
  • Next