LogoThread Easy
  • 탐색
  • 스레드 작성
LogoThread Easy

트위터 스레드의 올인원 파트너

© 2025 Thread Easy All Rights Reserved.

탐색

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

trying new coding style where i just chat with the model in voice for general strategy and type/tab complete everything myself.

saving all the time that i need with an agent otherwise for review, logical inconsistencies and bloat removal.

also more immersive.

trying new coding style where i just chat with the model in voice for general strategy and type/tab complete everything myself. saving all the time that i need with an agent otherwise for review, logical inconsistencies and bloat removal. also more immersive.

realising i don't want to look at anywhere except just the file and interact purely by voice, not just voice type. and if the model goes for interleaved reasoning or web search, it should be playing something classical while i wait.

avatar for tokenbender
tokenbender
Fri Nov 28 00:38:23
i've deleted all gachas so didn't pay attention
But yes Seed have cracked realtime gaming with off-the-shelf VLMs

i've deleted all gachas so didn't pay attention But yes Seed have cracked realtime gaming with off-the-shelf VLMs

We're in a race. It's not USA vs China but humans and AGIs vs ape power centralization. @deepseek_ai stan #1, 2023–Deep Time «C’est la guerre.» ®1

avatar for Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Fri Nov 28 00:36:38
没有提供平面图,6次提示让 Opus 4.5 生成老友记莫妮卡的房间

Opus 4.5 是最适配 Threejs 的大模型

图1 第1次提示生成效果
图2-4 第6次提示生成效果

其中第4-6次提示是提示 Opus 修改电视机的方向和沙发不对应的问题

公寓结构
尺寸调整为 8m × 6.5m × 3m
原点设在客厅地毯中心
紫色墙壁
厨房红砖墙
绿色杂物间墙
紫色大门 + 黄色巴洛克装饰框+ 猫眼
黑色金属格栅窗框
暖色拼花木地板

厨房 
蓝绿色橱柜,部分门是亮黄色
木质台面 
开放式木架(摆满盘子、碗、杯子)
米白色冰箱(门上贴满便签照片)
挂锅架

客厅
奶油白布艺沙发(替换原来的橙色)
米色地毯
玻璃边几
窄长木桌
CRT电视放在带雕花的木柜上
米色/淡黄单人沙发

装饰品 
法文复古海报 "Aux Buttes Chaumont – Jouets"(电视上方)
花色布帘 + 深红色幔帐
室内植物

没有提供平面图,6次提示让 Opus 4.5 生成老友记莫妮卡的房间 Opus 4.5 是最适配 Threejs 的大模型 图1 第1次提示生成效果 图2-4 第6次提示生成效果 其中第4-6次提示是提示 Opus 修改电视机的方向和沙发不对应的问题 公寓结构 尺寸调整为 8m × 6.5m × 3m 原点设在客厅地毯中心 紫色墙壁 厨房红砖墙 绿色杂物间墙 紫色大门 + 黄色巴洛克装饰框+ 猫眼 黑色金属格栅窗框 暖色拼花木地板 厨房 蓝绿色橱柜,部分门是亮黄色 木质台面 开放式木架(摆满盘子、碗、杯子) 米白色冰箱(门上贴满便签照片) 挂锅架 客厅 奶油白布艺沙发(替换原来的橙色) 米色地毯 玻璃边几 窄长木桌 CRT电视放在带雕花的木柜上 米色/淡黄单人沙发 装饰品 法文复古海报 "Aux Buttes Chaumont – Jouets"(电视上方) 花色布帘 + 深红色幔帐 室内植物

AI and tech aficionado, keen on radios and e-readers. 🌐 https://t.co/aW55vLd67a

avatar for nicekate
nicekate
Fri Nov 28 00:35:27
最离奇的软件 Bug,你听说过哪些?

下面这个是我本周看到,绝对可以排进史上前十名。

我把它译出来,跟大家分享,以下是第一人称的叙述。

2013年,我在 Valve 公司从事游戏开发。当时,第一代虚拟现实 VR 头盔刚刚发售。公司决定为这款头盔移植游戏,让我来移植。https://t.co/WbJPzuXrLk

最离奇的软件 Bug,你听说过哪些? 下面这个是我本周看到,绝对可以排进史上前十名。 我把它译出来,跟大家分享,以下是第一人称的叙述。 2013年,我在 Valve 公司从事游戏开发。当时,第一代虚拟现实 VR 头盔刚刚发售。公司决定为这款头盔移植游戏,让我来移植。https://t.co/WbJPzuXrLk

Stay Focused, Keep Shipping. Build Early, Build Always. Improve yourself, Write solid/simple/stupid code.

avatar for ruanyf
ruanyf
Fri Nov 28 00:34:09
为什么资深工程师在构建 AI 智能体时会遇到困难?

@_philschmid 分享了一个有趣的悖论:为什么经验丰富的资深工程师在开发 AI 智能体时,往往比初级工程师更慢、更难取得进展?Schmid 认为,根源在于传统软件工程强调确定性和消除歧义,而智能体工程本质上是概率性的,需要工程师学会“信任” LLM 来处理非线性流程和自然语言输入。他通过五个关键挑战,剖析了这种思维转变的难点,并提供实用洞见,帮助工程师适应这一范式。

主要观点:从确定性到概率性的范式转变
传统软件开发追求可预测性:输入固定、输出确定、错误通过异常处理隔离。相比之下,智能体依赖 LLM 作为“大脑”,通过自然语言驱动决策,允许多轮交互、分支和自适应。但资深工程师的本能是“编码消除不确定性”,这反而阻碍了智能体的潜力。Schmid 指出,初级工程师往往更直观地拥抱这种不确定性,能更快推出可工作的原型,而资深者需克服多年养成的习惯。

五个核心挑战
列出五个传统工程习惯与智能体开发的冲突点,每个挑战都配以解释和示例,强调如何转向更灵活的方法。

1. 文本即状态(Text is the New State)  
   传统系统使用结构化数据(如布尔值 is_approved: true/false)来表示状态,确保离散性和可预测性。但现实意图往往藏在自然语言的细微差别中,例如用户反馈“This plan looks good, but please focus on the US market”(这个计划不错,但请聚焦美国市场)。如果强制转换为二元结构,就会丢失这些 nuance(细微差别),导致智能体无法动态响应。  
   洞见:保留原始文本作为状态,让 LLM 在上下文中解读。例如,存储用户偏好“I prefer Celsius for weather, but use Fahrenheit for cooking”(天气用摄氏度,烹饪用华氏度),而非简单布尔值。这要求工程师从“结构化优先”转向“语义灵活”。

2. 交出控制权(Hand over Control) 
   传统架构如微服务依赖固定路由和 API 端点来控制流程。但智能体只有一个自然语言入口,由 LLM 根据工具和上下文决定下一步——可能循环、回溯或转向。例如,一个“取消订阅”意图可能通过谈判转为“提供折扣以挽留”。硬编码这些流程会扼杀智能体的适应性。  
   洞见:信任 LLM 处理控制流,利用其对完整上下文的理解。工程师应设计支持这种“非线性导航”的系统,而不是预设所有分支。

3. 错误只是输入(Errors are just inputs)
   在传统代码中,错误(如缺失变量)会触发异常,导致崩溃或重试。但智能体每次执行都消耗时间和成本,无法承受全盘失败。作者强调,错误应被视为新输入,反馈给智能体以实现自愈。  
   洞见:构建弹性机制,将错误循环回 LLM 进行恢复,而不是隔离处理。这体现了概率性思维:失败不是终点,而是迭代机会。

4. 从单元测试到评估(From Unit Tests to Evals)  
   单元测试依赖二元断言(pass/fail),适合确定性输出。但智能体的输出是概率性的,例如“总结这封邮件”可能产生无数有效变体。模拟 LLM 的测试也仅验证实现细节,而非整体行为。  
   洞见:转向“评估”(evals),包括可靠性(成功率,如45/50次通过)、质量(用 LLM 作为评判者打分帮助性和准确性)和追踪(检查中间步骤,如是否查询知识库)。目标不是100%确定,而是高置信度的概率成功。

5. 智能体在演化,API 不会(Agents Evolve, APIs Don't)
   API 设计时假设人类用户能推断上下文,但智能体是“字面主义者”——如果 get_user(id) 中的“email”被误解为 UUID,它可能幻觉出错误响应。API 的歧义会放大 LLM 的局限。  
   洞见:设计“傻瓜式” API,使用详细语义类型(如 delete_item_by_uuid(uuid: str))和文档字符串。智能体能即时适应 API 变化,这比传统代码更灵活。

解决方案与启示
Schmid 不主张完全抛弃工程原则,而是寻求“信任,但验证”(trust, but verify)的平衡:通过评估和追踪管理概率性,构建弹性系统。同时,认识到智能体并非万能——简单线性任务更适合工作流,而非智能体。示例包括保留用户反馈的文本状态、让错误驱动恢复循环,以及用评估量化智能体性能(例如,成功率 90%,质量分 4.5/5)。

博客地址:

为什么资深工程师在构建 AI 智能体时会遇到困难? @_philschmid 分享了一个有趣的悖论:为什么经验丰富的资深工程师在开发 AI 智能体时,往往比初级工程师更慢、更难取得进展?Schmid 认为,根源在于传统软件工程强调确定性和消除歧义,而智能体工程本质上是概率性的,需要工程师学会“信任” LLM 来处理非线性流程和自然语言输入。他通过五个关键挑战,剖析了这种思维转变的难点,并提供实用洞见,帮助工程师适应这一范式。 主要观点:从确定性到概率性的范式转变 传统软件开发追求可预测性:输入固定、输出确定、错误通过异常处理隔离。相比之下,智能体依赖 LLM 作为“大脑”,通过自然语言驱动决策,允许多轮交互、分支和自适应。但资深工程师的本能是“编码消除不确定性”,这反而阻碍了智能体的潜力。Schmid 指出,初级工程师往往更直观地拥抱这种不确定性,能更快推出可工作的原型,而资深者需克服多年养成的习惯。 五个核心挑战 列出五个传统工程习惯与智能体开发的冲突点,每个挑战都配以解释和示例,强调如何转向更灵活的方法。 1. 文本即状态(Text is the New State) 传统系统使用结构化数据(如布尔值 is_approved: true/false)来表示状态,确保离散性和可预测性。但现实意图往往藏在自然语言的细微差别中,例如用户反馈“This plan looks good, but please focus on the US market”(这个计划不错,但请聚焦美国市场)。如果强制转换为二元结构,就会丢失这些 nuance(细微差别),导致智能体无法动态响应。 洞见:保留原始文本作为状态,让 LLM 在上下文中解读。例如,存储用户偏好“I prefer Celsius for weather, but use Fahrenheit for cooking”(天气用摄氏度,烹饪用华氏度),而非简单布尔值。这要求工程师从“结构化优先”转向“语义灵活”。 2. 交出控制权(Hand over Control) 传统架构如微服务依赖固定路由和 API 端点来控制流程。但智能体只有一个自然语言入口,由 LLM 根据工具和上下文决定下一步——可能循环、回溯或转向。例如,一个“取消订阅”意图可能通过谈判转为“提供折扣以挽留”。硬编码这些流程会扼杀智能体的适应性。 洞见:信任 LLM 处理控制流,利用其对完整上下文的理解。工程师应设计支持这种“非线性导航”的系统,而不是预设所有分支。 3. 错误只是输入(Errors are just inputs) 在传统代码中,错误(如缺失变量)会触发异常,导致崩溃或重试。但智能体每次执行都消耗时间和成本,无法承受全盘失败。作者强调,错误应被视为新输入,反馈给智能体以实现自愈。 洞见:构建弹性机制,将错误循环回 LLM 进行恢复,而不是隔离处理。这体现了概率性思维:失败不是终点,而是迭代机会。 4. 从单元测试到评估(From Unit Tests to Evals) 单元测试依赖二元断言(pass/fail),适合确定性输出。但智能体的输出是概率性的,例如“总结这封邮件”可能产生无数有效变体。模拟 LLM 的测试也仅验证实现细节,而非整体行为。 洞见:转向“评估”(evals),包括可靠性(成功率,如45/50次通过)、质量(用 LLM 作为评判者打分帮助性和准确性)和追踪(检查中间步骤,如是否查询知识库)。目标不是100%确定,而是高置信度的概率成功。 5. 智能体在演化,API 不会(Agents Evolve, APIs Don't) API 设计时假设人类用户能推断上下文,但智能体是“字面主义者”——如果 get_user(id) 中的“email”被误解为 UUID,它可能幻觉出错误响应。API 的歧义会放大 LLM 的局限。 洞见:设计“傻瓜式” API,使用详细语义类型(如 delete_item_by_uuid(uuid: str))和文档字符串。智能体能即时适应 API 变化,这比传统代码更灵活。 解决方案与启示 Schmid 不主张完全抛弃工程原则,而是寻求“信任,但验证”(trust, but verify)的平衡:通过评估和追踪管理概率性,构建弹性系统。同时,认识到智能体并非万能——简单线性任务更适合工作流,而非智能体。示例包括保留用户反馈的文本状态、让错误驱动恢复循环,以及用评估量化智能体性能(例如,成功率 90%,质量分 4.5/5)。 博客地址:

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Fri Nov 28 00:33:41
Not saying this is an optimal arrangement. Of course not every Emperor is good. Not even every good Emperor can be a decent crisis manager. The succession problem is a mess. But good Emperors can manage catastrophic coordination problems, and that's their selling point.

Not saying this is an optimal arrangement. Of course not every Emperor is good. Not even every good Emperor can be a decent crisis manager. The succession problem is a mess. But good Emperors can manage catastrophic coordination problems, and that's their selling point.

We're in a race. It's not USA vs China but humans and AGIs vs ape power centralization. @deepseek_ai stan #1, 2023–Deep Time «C’est la guerre.» ®1

avatar for Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Fri Nov 28 00:32:04
  • Previous
  • 1
  • More pages
  • 2165
  • 2166
  • 2167
  • More pages
  • 5634
  • Next