LogoThread Easy
  • Explorer
  • Composer un thread
LogoThread Easy

Votre partenaire tout-en-un pour les threads Twitter

© 2025 Thread Easy All Rights Reserved.

Explorer

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

RT @indie_maker_fox: 闪电说跟Wispr Flow对比,Wispr效果更好,中英文都是

同样读一段英文,Wispr全对,闪电说漏了几个单词,甚至有单词错误

同样读一段中文,闪电说又漏了汉字,还有中文写出拼音,而Wispr还是全对,甚至细节到分成了3行,跟…

RT @indie_maker_fox: 闪电说跟Wispr Flow对比,Wispr效果更好,中英文都是 同样读一段英文,Wispr全对,闪电说漏了几个单词,甚至有单词错误 同样读一段中文,闪电说又漏了汉字,还有中文写出拼音,而Wispr还是全对,甚至细节到分成了3行,跟…

🔥 The best AI SaaS boilerplate - https://t.co/VyNtTs0jSX 🚀 The best directory boilerplate with AI - https://t.co/wEvJ1Dd8aR 🎉 https://t.co/bh1RxeERuY & https://t.co/zubXJCoY92 & https://t.co/tfQf8T7gGF

avatar for Fox@MkSaaS.com
Fox@MkSaaS.com
Sun Dec 07 14:11:12
Also solid argument
as we all know, the Chinese military is mainly involved in deterring another Yellow/Red Turban rebellion, so they cannot really wage war
the whole thing is a nothingburger

Also solid argument as we all know, the Chinese military is mainly involved in deterring another Yellow/Red Turban rebellion, so they cannot really wage war the whole thing is a nothingburger

We're in a race. It's not USA vs China but humans and AGIs vs ape power centralization. @deepseek_ai stan #1, 2023–Deep Time «C’est la guerre.» ®1

avatar for Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Sun Dec 07 14:06:11
RT @magadum_aniket: Hey Laravel Developers 👩💻

You must have used Laravel's HTTP Client to make external API calls to third-party services…

RT @magadum_aniket: Hey Laravel Developers 👩💻 You must have used Laravel's HTTP Client to make external API calls to third-party services…

~20 yrs in web-dev, now mostly Laravel. My Laravel courses: https://t.co/HRUAJdMRZL My Youtube channel: https://t.co/qPQAkaov2F

avatar for Povilas Korop | Laravel Courses Creator & Youtuber
Povilas Korop | Laravel Courses Creator & Youtuber
Sun Dec 07 14:04:01
再看 Manus 这篇深度好文「Context Engineering for AI Agents: Lessons from Building Manus」还是很有收获和启发

@ManusAI 怎么在不改变模型本身的前提下,通过极致优化输入给模型的上下文信息结构,解决 AI Agent 变慢、变笨、变贵的问题。实际上是在构建一个 “以 LLM 为核心的操作系统”,梳理了这几个方面 🔽

性能优化:像保护数据库一样保护“KV-Cache”
痛点:Agent 运行慢、成本高,本质上是因为每次请求都在做大量重复计算。
技术洞察:大模型推理时,会产生 KV-Cache 临时缓存。如果你的输入提示词的前半部分保持不变,这部分缓存就能被复用,推理速度能快 10 倍以上。
Manus 的解法:“前缀冻结”策略。
  · 绝不要在 System Prompt 的开头插入动态变化的信息(比如精确到秒的时间戳)。因为开头只要变一个字符,整个 KV-Cache 就会失效,系统就得从头计算。
  · 这就好比写代码时,要把“静态常量”放在最前面,把“动态变量”放在最后面,最大化缓存的命中率。

状态管理:对抗大模型的“健忘症”
痛点:随着任务链变长,模型容易出现“Lost-in-the-middle”,忘了自己最初的目标或中间的某个状态。
技术洞察:Transformer 架构对长文本首尾的注意力最强,中间最弱。单纯把任务历史堆在中间,模型很容易“看漏”。
Manus 的解法:“显式状态复述” (Explicit State Recitation)。
  · 不仅仅是记录日志,而是强制模型在每次输出的末尾,重新生成一遍当前的 Todo List 和 当前状态。
  · 这利用了 Transformer 的注意力机制特性:把最重要的状态信息,强行搬运到模型视线的最新处,相当于在每一次推理前,都做了一次“注意力校准”。

错误处理:把“报错信息”当作一种训练数据
痛点:传统软件遇到 Error 通常会 catch 掉并重试,但对于 Agent,如果把错误日志删了,模型不知道自己刚才错了,很可能会重蹈覆辙。
技术洞察:大模型具备 In-Context Learning 能力。它不仅能学“怎么做对”,也能从“怎么做错”中吸取教训。
Manus 的解法:保留“负样本”上下文。
  · 当 Agent 执行工具失败时,保留完整的报错堆栈。模型看到“路径 A -> 失败”,在下一次推理时,其内部概率分布会自动降低路径 A 的权重。
  · 这是一种运行时强化学习。你不需要训练模型,只需要把“失败的尸体”留在现场,模型自己就会学会绕路走。

样本设计:防止模型进入“自动补全模式”
痛点:如果你给模型的 Few-Shot 格式太完美、太统一,模型会变笨。
技术洞察:大模型底层有很强的“模式复制”倾向。当它发现输入全是重复格式时,它会倾向于机械地复制格式,而停止思考 内容 的逻辑。
Manus 的解法:引入“结构熵”(噪音)。
  · 不要让历史交互记录看起来像是一个模子里刻出来的。在构建 Context 时,故意保留一些异构的、不那么完美的记录。
  · 这种微小的“混乱感”,能打破模型的机械惯性,迫使它每次都必须真正“读懂”当前的内容才能生成回答,而不是简单地做文本补全。

阅读原文

再看 Manus 这篇深度好文「Context Engineering for AI Agents: Lessons from Building Manus」还是很有收获和启发 @ManusAI 怎么在不改变模型本身的前提下,通过极致优化输入给模型的上下文信息结构,解决 AI Agent 变慢、变笨、变贵的问题。实际上是在构建一个 “以 LLM 为核心的操作系统”,梳理了这几个方面 🔽 性能优化:像保护数据库一样保护“KV-Cache” 痛点:Agent 运行慢、成本高,本质上是因为每次请求都在做大量重复计算。 技术洞察:大模型推理时,会产生 KV-Cache 临时缓存。如果你的输入提示词的前半部分保持不变,这部分缓存就能被复用,推理速度能快 10 倍以上。 Manus 的解法:“前缀冻结”策略。 · 绝不要在 System Prompt 的开头插入动态变化的信息(比如精确到秒的时间戳)。因为开头只要变一个字符,整个 KV-Cache 就会失效,系统就得从头计算。 · 这就好比写代码时,要把“静态常量”放在最前面,把“动态变量”放在最后面,最大化缓存的命中率。 状态管理:对抗大模型的“健忘症” 痛点:随着任务链变长,模型容易出现“Lost-in-the-middle”,忘了自己最初的目标或中间的某个状态。 技术洞察:Transformer 架构对长文本首尾的注意力最强,中间最弱。单纯把任务历史堆在中间,模型很容易“看漏”。 Manus 的解法:“显式状态复述” (Explicit State Recitation)。 · 不仅仅是记录日志,而是强制模型在每次输出的末尾,重新生成一遍当前的 Todo List 和 当前状态。 · 这利用了 Transformer 的注意力机制特性:把最重要的状态信息,强行搬运到模型视线的最新处,相当于在每一次推理前,都做了一次“注意力校准”。 错误处理:把“报错信息”当作一种训练数据 痛点:传统软件遇到 Error 通常会 catch 掉并重试,但对于 Agent,如果把错误日志删了,模型不知道自己刚才错了,很可能会重蹈覆辙。 技术洞察:大模型具备 In-Context Learning 能力。它不仅能学“怎么做对”,也能从“怎么做错”中吸取教训。 Manus 的解法:保留“负样本”上下文。 · 当 Agent 执行工具失败时,保留完整的报错堆栈。模型看到“路径 A -> 失败”,在下一次推理时,其内部概率分布会自动降低路径 A 的权重。 · 这是一种运行时强化学习。你不需要训练模型,只需要把“失败的尸体”留在现场,模型自己就会学会绕路走。 样本设计:防止模型进入“自动补全模式” 痛点:如果你给模型的 Few-Shot 格式太完美、太统一,模型会变笨。 技术洞察:大模型底层有很强的“模式复制”倾向。当它发现输入全是重复格式时,它会倾向于机械地复制格式,而停止思考 内容 的逻辑。 Manus 的解法:引入“结构熵”(噪音)。 · 不要让历史交互记录看起来像是一个模子里刻出来的。在构建 Context 时,故意保留一些异构的、不那么完美的记录。 · 这种微小的“混乱感”,能打破模型的机械惯性,迫使它每次都必须真正“读懂”当前的内容才能生成回答,而不是简单地做文本补全。 阅读原文

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Sun Dec 07 14:01:49
Zero mention of drones
mentions blockade and missile barrages. Then moves on to this narrative of a meat wave. Abruptly ends on mobile piers issue.
«Write to Niharika Mandhana»
commentariat on point. Cyberattack on 3GD!
high octane D-Day capeshit

Zero mention of drones mentions blockade and missile barrages. Then moves on to this narrative of a meat wave. Abruptly ends on mobile piers issue. «Write to Niharika Mandhana» commentariat on point. Cyberattack on 3GD! high octane D-Day capeshit

We're in a race. It's not USA vs China but humans and AGIs vs ape power centralization. @deepseek_ai stan #1, 2023–Deep Time «C’est la guerre.» ®1

avatar for Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Sun Dec 07 14:01:47
These people make immigrants look silly. Why do you need to abolish the monarchy, a heritage institution that is the foundation of the UK and brings in billions of pounds? 

Are you people ever innovative? Only destructive, it seems

These people make immigrants look silly. Why do you need to abolish the monarchy, a heritage institution that is the foundation of the UK and brings in billions of pounds? Are you people ever innovative? Only destructive, it seems

Founder | Author | Speaker Building @beltstripe. Healtech/EdTech/Agric I'm Not The Man Of Your Dreams. Your Imagination Wasn't This Great.

avatar for Sani Yusuf
Sani Yusuf
Sun Dec 07 14:00:56
  • Previous
  • 1
  • More pages
  • 1351
  • 1352
  • 1353
  • More pages
  • 5634
  • Next