LogoThread Easy
  • Explorer
  • Composer un thread
LogoThread Easy

Votre partenaire tout-en-un pour les threads Twitter

© 2025 Thread Easy All Rights Reserved.

Explorer

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

@Tim_Dettmers “The US follows the idea that there will be one winner who takes it all. Even coming short of ‘AGI,’ if you have the best model, everyone will use your model and not the competition’s. The idea is: develop the Biggest, Baddest model and people will come.”

https://t.co/1EXGNSDC5q

@Tim_Dettmers “The US follows the idea that there will be one winner who takes it all. Even coming short of ‘AGI,’ if you have the best model, everyone will use your model and not the competition’s. The idea is: develop the Biggest, Baddest model and people will come.” https://t.co/1EXGNSDC5q

Building @SakanaAILabs 🧠

avatar for hardmaru
hardmaru
Sun Dec 14 13:07:52
RT @Yuchenj_UW: Sundar Pichai:

“Sergey is spending more time in the office. He's literally coding, and some of my fondest memories over th…

RT @Yuchenj_UW: Sundar Pichai: “Sergey is spending more time in the office. He's literally coding, and some of my fondest memories over th…

🇪🇺 https://t.co/NdorAWrhrB @euacc 📸 https://t.co/lAyoqmT9Hv $115K/m 🏡 https://t.co/1oqUgfDEsx $36K/m 🛰 https://t.co/ZHSvI2wRou $42K/m 🌍 https://t.co/UXK5AFra0o $14K/m 👙 https://t.co/RyXpqGvdBB $14K/m 💾 https://t.co/M1hEUBB6da $6K

avatar for @levelsio
@levelsio
Sun Dec 14 13:07:24
王冠被 OpenAI 碾压过三次。

第一次做写作工具,ChatGPT发布了。
第二次做Excel转图表,GPT-4来了。
第三次做Agent工作流,OpenAI Plugins上线了。

每次都踩得那么精准,像是有人在天上盯着他的进度条。

这让他意识到一件事:盲目做应用是虚无的。

你不知道基座模型的能力边界在哪儿,就像在流沙上盖房子,随时会被淹没。

所以他做了一个决定,先去月之暗面(Moonshot AI)当模型产品负责人,搞清楚模型到底能干什么,再出来创业。

一年后,他离职创办了ONE2X,做AI视频生成器Medeo。

他是月之暗面第一个离职创业的员工,公司的离职流程都是因为他才建立的。

压缩即智能:五道口的顿悟

王冠对大模型的信仰,来自五道口的一顿饭。

那是在龙人居餐厅,月之暗面创始人杨植麟(Tim)花了三个小时给他讲"压缩即智能",全程在纸上写数学公式。

王冠坦诚地说,"我完全没听懂那些公式,但大受震撼"。

后来他去研究OpenAI科学家Jack Rae的视频,慢慢拼凑出了完整的认知地图。

这个概念很抽象,但王冠把它讲得很生动:

压缩不只是把文件变小,而是强迫数据建立联系。

想象下,你教AI两件事:中文翻译成英文,还有中文总结。

按理说,AI没学过"英文总结"这个任务。但因为压缩把这些离散的知识点挤在一起,它自动学会了。

这就是连续性。

以前的AI处理的是结构化数据,像Excel表格那样,一格一格的,互不相干。

现在的大模型处理的是语言、视频这些非结构化数据,它们本身就是连续的,像一条河流。

压缩让这条河流得更顺畅,AI就能"触类旁通"。

数据的三个阶段:创业公司的机会在哪儿

王冠有个核心判断:智能的第一性原理是数据。

他把AI行业的竞争分成三个阶段:

第一阶段:公域数据

大家都在互联网上抓数据,拼的是算力和清洗效率。这个阶段已经结束了,格局已定,基座模型公司赢了。

第二阶段:领域数据

拼的是"我有你没有"的私有数据,比如医疗、金融这些行业的历史积累。这利好大厂和传统巨头。

第三阶段:内生数据

这是创业公司的机会。

什么叫内生数据?就是世界上之前不存在的数据。

ChatGPT出现之前,没有海量通过对话解决问题的自然语言数据。

ONE2X做视频生成,就是要创造一套描述视频制作过程的语言(DSL),这套语言本身就是新数据。

只有通过设计新的产品形态产生内生数据,并把它训回模型,创业公司才能建立壁垒,不被基座模型的"自然延伸"碾压。

生成系统:一个完整的闭环

王冠不喜欢"套壳"这个词的贬义用法。

他说,壳可厚可薄,System 2才是核心竞争力。

基座模型(System 1)大家用的都一样,产品的胜负取决于你在模型之外构建的"壳",也就是上下文(Context)。

ONE2X的架构分三层:

底层:DSL(领域特定语言)

把视频制作这件复杂的事,抽象成一组有限的"原子能力"。就像围棋,规则是封闭的,所以可以被计算。

中间层:Context(上下文)

这一层的核心任务是降低"熵"。

什么是熵?就是不确定性。

用户说"做个高大上的视频",这句话的熵很高,AI不知道怎么执行。

System 2要把这句话转化成精确的指令。

同时,它还要约束AI智能体的行为边界,确保它不会乱调用工具,输出可控。

顶层:Environment(环境)

这不只是个软件界面,而是一个让人和AI共同活动的"环境"。

用户在这里的每一次操作、每一次修改,都是在为系统产生高质量的数据。这个环境本质上是一个标注平台。

王冠举了个例子:厨师做菜,油温多少度,翻炒几下,这些隐性知识如果不记录下来,AI就学不会。Environment要做的,就是把这些"火候"全部显性化。

物理世界vs理念世界:视频的两个战场

王冠对视频赛道有个独特的划分。

物理世界的视频,是摄像头拍的,对应抖音、快手这些短视频平台。

王冠把它比作"夜店、超市、生活广场",娱乐、八卦、卖货,供给已经很充分了。

理念世界的视频,是AI生成的,对应知识、艺术、精神信仰。王冠把它比作"图书馆、歌剧院、大教堂"。

这类内容以前因为制作成本太高(比如耐克的高端广告,或者把一篇文章可视化成视频),一直是稀缺的。

ONE2X要做的,就是占领这个"理念世界"。

他还有个更大的愿景:让视频从"创作"变成"表达"。

古代写字是创作,需要笔墨纸砚,门槛很高。

现在发微信是表达,门槛极低。目前做视频还是创作,像写情书。未来应该变成表达,像说话一样自然。

只有当一种模态从创作变为表达时,才会诞生伟大的产品。

生成系统将取代推荐系统

王冠有个大胆的判断:中间商将死。

互联网平台本质上是"分销平台",掌握流量分配权,剥削创作者。抖音、淘宝都是这样。

生成系统是"产销一体",没有库存,没有流量分配,直接对接需求与生产。

用户想要什么,AI直接生成,不需要在海量内容里检索。

这意味着推荐算法这个"中间商"不再需要了。

随之而来的,是货币的变更。

在内容供给无限的时代,"注意力"(流量)不再稀缺,稀缺的是"信任"。

未来用户不会为流量买单,而是为创作者的品味(Taste)和配方(Recipe)付费。就像Substack那样,我信任你这个人,所以订阅你。

未来的创作者:两极分化

王冠认为,创作者群体会分化成两类。

金字塔尖的艺术家/专家

这些人不会被AI替代,反而会被放大。

系统是他们能力的放大器,把他们的高级智慧复制成千上万份。

他们的每一次操作、每一次修正,都是在为系统提供高质量的"内生数据"。

他们是生成系统能够不断进化的核心驱动力。

广泛的"产销者"

对于大众而言,创作不再是为了商业目的,而是回归到"产销一体"。

就像退休老干部在家写毛笔字,创作过程本身就是一种消费。

用户生成内容是为了满足自己的精神需求,价值在生产完成的那一刻就实现了,不需要依赖外部流量变现。

王冠把这叫做"劳动即消费"。

AI时代的产品经理:不再只是画原型

王冠自己就是产品经理出身,他对这个角色在AI时代的价值有深刻的思考。

PM的核心工作不再是画原型,而是设计智能的边界。

具体来说,分三个层面:

设计System 1:定义模型的能力边界

模型即产品,模型本身是值得被设计的。PM需要把业务Know-how转化为数据,定义什么叫"好"的结果,建立评测标准。

构建System 2:设计上下文与环境

PM的核心竞争力在于Context Engineering(上下文工程)。

通过设计Agent框架、工作流和知识库,为模型提供高质量的输入。

战略核心:设计"内生数据"闭环

PM必须设计一种全新的产品形态,使其在运行过程中产生世界上之前不存在的数据。

这个产品本质上是一个"标注平台"。

王冠说,PM还要扮演"审美"和"标准"的制定者。

不是所有数据都是好数据,PM需要具备极高的品味(Taste),去定义什么是高质量的输出。

组织即环境:员工是智能体

ONE2X是一家很特别的公司。

全员远程,没有管理岗,没有KPI,甚至连考勤都没有。

王冠把它定义为"产品工作室"(Product Studio),而不是传统公司。

他的组织哲学很简单:把公司视为一个"环境",员工是"智能体"。

这个概念来自强化学习。

在强化学习里,你不控制智能体,而是搭建一个环境,让智能体在其中自主活动。

王冠说,管理的核心不是KPI考核,而是对齐"奖励函数"(Reward Function)。

每个员工进入公司都带有自己的目标,可能是对技术的热爱,可能是不想让公司死掉。

组织的智慧在于找到一种方式,让个人的目标向量在公司前进的方向上有最大的投影。

为了解决远程办公的孤独感和信任问题,ONE2X建立了"温暖可信计划"。

公司内部有个"朋友圈",大家在飞书里建立话题组,分享生活八卦、写小作文。

通过这些非工作内容的交流,建立类似线下的温暖感和人际信任。

王冠说,坐班制是工业革命的产物。脑力劳动不需要依附于物理产线,远程办公配合"温暖可信计划"更适合产品工作室模式。

狭义AGI:一个自动化的赚钱闭环

关于AGI(通用人工智能),王冠有个非常务实的定义。

他不谈全知全能,也不谈自我意识。他说的是狭义AGI。

什么是狭义AGI?

在一个特定商业领域(比如炒股),AI能自己赚钱,用赚的钱买算力和数据,再优化自己赚更多的钱。

当人完全退出这个Loop时,狭义AGI就在该领域实现了。

这不是一个突然到来的"奇点",而是一点一点发生的。

比如在编程(Coding)或语言处理领域,这种现象似乎正在被点亮。

诺基亚时代的策略:积累数据,等待iPhone时刻

王冠有个精准的类比:当下是AI的"诺基亚时代"。

我们现在看到的AI应用,很像诺基亚手机上的计算器或贪吃蛇。

在这个阶段做复杂的移动互联网式APP是不合时宜的。

策略是什么?

在"iPhone时刻"到来之前(即端到端多模态模型成熟、成本极低、推理极快之前),应该做离模型最近的生产力工具。

这样既能感知模型变化,又能积累数据(System 2/Context),为未来真正的超级APP做准备。

王冠还引用了一句诗来描述通用Agent和垂直Agent的关系:"千江有水千江月,万里无云万里天"。

垂直Agent(千江月)在各自领域有独特智慧和数据,这是应用公司的机会。

通用Agent(万里天)试图覆盖所有,但在过渡阶段无法在所有领域都做到极致。

最终两者会殊途同归:通用做深垂直,垂直扩展边界,在效果与成本的极致比拼中相遇。

蝴蝶穿花:老子的入世哲学

聊到个人哲学,王冠说自己深受道家影响。

但他做了个有趣的区分:不喜欢庄子的"大鹏展翅",更喜欢老子的"蝴蝶穿花"。

大鹏展翅是逍遥、避世、飞得高。

蝴蝶穿花是在花丛中飞行从不走直线,而是在障碍中游刃有余。

王冠说,创业者应该像蝴蝶一样,积极入世,顺应环境变化解决具体问题,而不是追求虚无的超脱。

他还分享了一个让他感到"惊悚"的冷知识:一代人只有25到30年。

作为一个30多岁的人,他意识到自己现在做的产品,其实是在服务"下一世"的人(即比他小25-30岁的人)。

这种时间观让他跳出了当下的焦虑,用更长远的眼光看产品演进。

北极星指标:系统的智慧程度

ONE2X的北极星指标不是DAU(日活),而是系统的智慧程度。

王冠说,3个专家用户产生100万营收,优于10万个普通用户产生同样营收。

为什么?

因为专家用户(高审美/高能力)的操作能为系统提供高质量数据,提升系统的"智慧程度"。

智慧怎么量化?

不是看生成了多少内容,而是"消耗更少的Token达到同样的效果"。

就像做数学题,一眼看出答案的人比反复演算的人更聪明。Token消耗越少,代表系统越智能。

这是一个完全不同于互联网时代的衡量标准。

一个意外的验证

为了验证产品的商业价值,王冠自己做了一次"小白鼠"。

他用Medeo的早期版本制作视频,发在微信视频号上。作为一个没有特意运营的号,竟然跑出了200多万播放量。

更惊喜的是,他一开始不知道视频号有流量分成,直到有一天系统提示有钱到账(几百块钱)。

这让他确信,即使是目前的半成品工具,也能让普通人通过内容获利。

还有个更疯狂的故事。

B站和视频号上某位头部的AI内容博主,为了使用他们的产品,借遍了周围朋友的谷歌账号来充值积分。

他们把能买的积分包全部买光并充值到上限,依然觉得不够用,最后直接联系到王冠团队求助。

这让王冠团队意识到,头部创作者对高效生产工具的渴求是惊人的。

反共识的20个观点

如果要总结王冠的想法,这里有20个最核心的反共识观点:

关于智能的底层逻辑

1. 智能的第一性原理是数据,数据决定边界,算力决定速度,算法决定涌现
2. 压缩即智能,核心在于"连续性"
3. 从"拟合结构"到"拟合世界"
4. 狭义AGI是"赚钱-进化"的自动化闭环

关于行业竞争

5. 行业发展的三个阶段:公域→领域→内生
6. 护城河在于"内生数据"
7. 当下是AI的"诺基亚时代"
8. "壳"是核心竞争力,Context is Everything
9. 通用与垂直的终局:千江有水千江月

关于产品方法论

10. 生成系统将取代推荐系统
11. 产品架构三层论:DSL→Context→Environment
12. 上下文工程的核心是"降熵"
13. 北极星指标:系统智慧度
14. 环境即标注

关于内容生态

15. 视频是AI时代的"起点"而非终点
16. 物理世界vs理念世界
17. 从"创作"到"表达"
18. 货币变革:从"注意力"到"信任"

关于组织与哲学

19. 组织即环境,员工即智能体
20. 蝴蝶穿花,积极入世

尾声

王冠最爱的食物是白米饭。

在快问快答环节,他说自己不喜欢旅游,也没有全球视野的美食偏好。

白米饭兼容性最强,和任何食物搭配都有滋味。

这或许也隐喻了他做产品的思维:做最基础、最兼容的底座。

在AI的诺基亚时代,大多数人在追逐流量和变现,王冠选择了一条更难的路:造一座视频的图书馆,积累内生数据,等待iPhone时刻。

他说,一代人只有一世。

那就用这一世,做点不一样的事。

---
基于播客张小珺Jun 商业访谈录,使用Prompt生成。

王冠被 OpenAI 碾压过三次。 第一次做写作工具,ChatGPT发布了。 第二次做Excel转图表,GPT-4来了。 第三次做Agent工作流,OpenAI Plugins上线了。 每次都踩得那么精准,像是有人在天上盯着他的进度条。 这让他意识到一件事:盲目做应用是虚无的。 你不知道基座模型的能力边界在哪儿,就像在流沙上盖房子,随时会被淹没。 所以他做了一个决定,先去月之暗面(Moonshot AI)当模型产品负责人,搞清楚模型到底能干什么,再出来创业。 一年后,他离职创办了ONE2X,做AI视频生成器Medeo。 他是月之暗面第一个离职创业的员工,公司的离职流程都是因为他才建立的。 压缩即智能:五道口的顿悟 王冠对大模型的信仰,来自五道口的一顿饭。 那是在龙人居餐厅,月之暗面创始人杨植麟(Tim)花了三个小时给他讲"压缩即智能",全程在纸上写数学公式。 王冠坦诚地说,"我完全没听懂那些公式,但大受震撼"。 后来他去研究OpenAI科学家Jack Rae的视频,慢慢拼凑出了完整的认知地图。 这个概念很抽象,但王冠把它讲得很生动: 压缩不只是把文件变小,而是强迫数据建立联系。 想象下,你教AI两件事:中文翻译成英文,还有中文总结。 按理说,AI没学过"英文总结"这个任务。但因为压缩把这些离散的知识点挤在一起,它自动学会了。 这就是连续性。 以前的AI处理的是结构化数据,像Excel表格那样,一格一格的,互不相干。 现在的大模型处理的是语言、视频这些非结构化数据,它们本身就是连续的,像一条河流。 压缩让这条河流得更顺畅,AI就能"触类旁通"。 数据的三个阶段:创业公司的机会在哪儿 王冠有个核心判断:智能的第一性原理是数据。 他把AI行业的竞争分成三个阶段: 第一阶段:公域数据 大家都在互联网上抓数据,拼的是算力和清洗效率。这个阶段已经结束了,格局已定,基座模型公司赢了。 第二阶段:领域数据 拼的是"我有你没有"的私有数据,比如医疗、金融这些行业的历史积累。这利好大厂和传统巨头。 第三阶段:内生数据 这是创业公司的机会。 什么叫内生数据?就是世界上之前不存在的数据。 ChatGPT出现之前,没有海量通过对话解决问题的自然语言数据。 ONE2X做视频生成,就是要创造一套描述视频制作过程的语言(DSL),这套语言本身就是新数据。 只有通过设计新的产品形态产生内生数据,并把它训回模型,创业公司才能建立壁垒,不被基座模型的"自然延伸"碾压。 生成系统:一个完整的闭环 王冠不喜欢"套壳"这个词的贬义用法。 他说,壳可厚可薄,System 2才是核心竞争力。 基座模型(System 1)大家用的都一样,产品的胜负取决于你在模型之外构建的"壳",也就是上下文(Context)。 ONE2X的架构分三层: 底层:DSL(领域特定语言) 把视频制作这件复杂的事,抽象成一组有限的"原子能力"。就像围棋,规则是封闭的,所以可以被计算。 中间层:Context(上下文) 这一层的核心任务是降低"熵"。 什么是熵?就是不确定性。 用户说"做个高大上的视频",这句话的熵很高,AI不知道怎么执行。 System 2要把这句话转化成精确的指令。 同时,它还要约束AI智能体的行为边界,确保它不会乱调用工具,输出可控。 顶层:Environment(环境) 这不只是个软件界面,而是一个让人和AI共同活动的"环境"。 用户在这里的每一次操作、每一次修改,都是在为系统产生高质量的数据。这个环境本质上是一个标注平台。 王冠举了个例子:厨师做菜,油温多少度,翻炒几下,这些隐性知识如果不记录下来,AI就学不会。Environment要做的,就是把这些"火候"全部显性化。 物理世界vs理念世界:视频的两个战场 王冠对视频赛道有个独特的划分。 物理世界的视频,是摄像头拍的,对应抖音、快手这些短视频平台。 王冠把它比作"夜店、超市、生活广场",娱乐、八卦、卖货,供给已经很充分了。 理念世界的视频,是AI生成的,对应知识、艺术、精神信仰。王冠把它比作"图书馆、歌剧院、大教堂"。 这类内容以前因为制作成本太高(比如耐克的高端广告,或者把一篇文章可视化成视频),一直是稀缺的。 ONE2X要做的,就是占领这个"理念世界"。 他还有个更大的愿景:让视频从"创作"变成"表达"。 古代写字是创作,需要笔墨纸砚,门槛很高。 现在发微信是表达,门槛极低。目前做视频还是创作,像写情书。未来应该变成表达,像说话一样自然。 只有当一种模态从创作变为表达时,才会诞生伟大的产品。 生成系统将取代推荐系统 王冠有个大胆的判断:中间商将死。 互联网平台本质上是"分销平台",掌握流量分配权,剥削创作者。抖音、淘宝都是这样。 生成系统是"产销一体",没有库存,没有流量分配,直接对接需求与生产。 用户想要什么,AI直接生成,不需要在海量内容里检索。 这意味着推荐算法这个"中间商"不再需要了。 随之而来的,是货币的变更。 在内容供给无限的时代,"注意力"(流量)不再稀缺,稀缺的是"信任"。 未来用户不会为流量买单,而是为创作者的品味(Taste)和配方(Recipe)付费。就像Substack那样,我信任你这个人,所以订阅你。 未来的创作者:两极分化 王冠认为,创作者群体会分化成两类。 金字塔尖的艺术家/专家 这些人不会被AI替代,反而会被放大。 系统是他们能力的放大器,把他们的高级智慧复制成千上万份。 他们的每一次操作、每一次修正,都是在为系统提供高质量的"内生数据"。 他们是生成系统能够不断进化的核心驱动力。 广泛的"产销者" 对于大众而言,创作不再是为了商业目的,而是回归到"产销一体"。 就像退休老干部在家写毛笔字,创作过程本身就是一种消费。 用户生成内容是为了满足自己的精神需求,价值在生产完成的那一刻就实现了,不需要依赖外部流量变现。 王冠把这叫做"劳动即消费"。 AI时代的产品经理:不再只是画原型 王冠自己就是产品经理出身,他对这个角色在AI时代的价值有深刻的思考。 PM的核心工作不再是画原型,而是设计智能的边界。 具体来说,分三个层面: 设计System 1:定义模型的能力边界 模型即产品,模型本身是值得被设计的。PM需要把业务Know-how转化为数据,定义什么叫"好"的结果,建立评测标准。 构建System 2:设计上下文与环境 PM的核心竞争力在于Context Engineering(上下文工程)。 通过设计Agent框架、工作流和知识库,为模型提供高质量的输入。 战略核心:设计"内生数据"闭环 PM必须设计一种全新的产品形态,使其在运行过程中产生世界上之前不存在的数据。 这个产品本质上是一个"标注平台"。 王冠说,PM还要扮演"审美"和"标准"的制定者。 不是所有数据都是好数据,PM需要具备极高的品味(Taste),去定义什么是高质量的输出。 组织即环境:员工是智能体 ONE2X是一家很特别的公司。 全员远程,没有管理岗,没有KPI,甚至连考勤都没有。 王冠把它定义为"产品工作室"(Product Studio),而不是传统公司。 他的组织哲学很简单:把公司视为一个"环境",员工是"智能体"。 这个概念来自强化学习。 在强化学习里,你不控制智能体,而是搭建一个环境,让智能体在其中自主活动。 王冠说,管理的核心不是KPI考核,而是对齐"奖励函数"(Reward Function)。 每个员工进入公司都带有自己的目标,可能是对技术的热爱,可能是不想让公司死掉。 组织的智慧在于找到一种方式,让个人的目标向量在公司前进的方向上有最大的投影。 为了解决远程办公的孤独感和信任问题,ONE2X建立了"温暖可信计划"。 公司内部有个"朋友圈",大家在飞书里建立话题组,分享生活八卦、写小作文。 通过这些非工作内容的交流,建立类似线下的温暖感和人际信任。 王冠说,坐班制是工业革命的产物。脑力劳动不需要依附于物理产线,远程办公配合"温暖可信计划"更适合产品工作室模式。 狭义AGI:一个自动化的赚钱闭环 关于AGI(通用人工智能),王冠有个非常务实的定义。 他不谈全知全能,也不谈自我意识。他说的是狭义AGI。 什么是狭义AGI? 在一个特定商业领域(比如炒股),AI能自己赚钱,用赚的钱买算力和数据,再优化自己赚更多的钱。 当人完全退出这个Loop时,狭义AGI就在该领域实现了。 这不是一个突然到来的"奇点",而是一点一点发生的。 比如在编程(Coding)或语言处理领域,这种现象似乎正在被点亮。 诺基亚时代的策略:积累数据,等待iPhone时刻 王冠有个精准的类比:当下是AI的"诺基亚时代"。 我们现在看到的AI应用,很像诺基亚手机上的计算器或贪吃蛇。 在这个阶段做复杂的移动互联网式APP是不合时宜的。 策略是什么? 在"iPhone时刻"到来之前(即端到端多模态模型成熟、成本极低、推理极快之前),应该做离模型最近的生产力工具。 这样既能感知模型变化,又能积累数据(System 2/Context),为未来真正的超级APP做准备。 王冠还引用了一句诗来描述通用Agent和垂直Agent的关系:"千江有水千江月,万里无云万里天"。 垂直Agent(千江月)在各自领域有独特智慧和数据,这是应用公司的机会。 通用Agent(万里天)试图覆盖所有,但在过渡阶段无法在所有领域都做到极致。 最终两者会殊途同归:通用做深垂直,垂直扩展边界,在效果与成本的极致比拼中相遇。 蝴蝶穿花:老子的入世哲学 聊到个人哲学,王冠说自己深受道家影响。 但他做了个有趣的区分:不喜欢庄子的"大鹏展翅",更喜欢老子的"蝴蝶穿花"。 大鹏展翅是逍遥、避世、飞得高。 蝴蝶穿花是在花丛中飞行从不走直线,而是在障碍中游刃有余。 王冠说,创业者应该像蝴蝶一样,积极入世,顺应环境变化解决具体问题,而不是追求虚无的超脱。 他还分享了一个让他感到"惊悚"的冷知识:一代人只有25到30年。 作为一个30多岁的人,他意识到自己现在做的产品,其实是在服务"下一世"的人(即比他小25-30岁的人)。 这种时间观让他跳出了当下的焦虑,用更长远的眼光看产品演进。 北极星指标:系统的智慧程度 ONE2X的北极星指标不是DAU(日活),而是系统的智慧程度。 王冠说,3个专家用户产生100万营收,优于10万个普通用户产生同样营收。 为什么? 因为专家用户(高审美/高能力)的操作能为系统提供高质量数据,提升系统的"智慧程度"。 智慧怎么量化? 不是看生成了多少内容,而是"消耗更少的Token达到同样的效果"。 就像做数学题,一眼看出答案的人比反复演算的人更聪明。Token消耗越少,代表系统越智能。 这是一个完全不同于互联网时代的衡量标准。 一个意外的验证 为了验证产品的商业价值,王冠自己做了一次"小白鼠"。 他用Medeo的早期版本制作视频,发在微信视频号上。作为一个没有特意运营的号,竟然跑出了200多万播放量。 更惊喜的是,他一开始不知道视频号有流量分成,直到有一天系统提示有钱到账(几百块钱)。 这让他确信,即使是目前的半成品工具,也能让普通人通过内容获利。 还有个更疯狂的故事。 B站和视频号上某位头部的AI内容博主,为了使用他们的产品,借遍了周围朋友的谷歌账号来充值积分。 他们把能买的积分包全部买光并充值到上限,依然觉得不够用,最后直接联系到王冠团队求助。 这让王冠团队意识到,头部创作者对高效生产工具的渴求是惊人的。 反共识的20个观点 如果要总结王冠的想法,这里有20个最核心的反共识观点: 关于智能的底层逻辑 1. 智能的第一性原理是数据,数据决定边界,算力决定速度,算法决定涌现 2. 压缩即智能,核心在于"连续性" 3. 从"拟合结构"到"拟合世界" 4. 狭义AGI是"赚钱-进化"的自动化闭环 关于行业竞争 5. 行业发展的三个阶段:公域→领域→内生 6. 护城河在于"内生数据" 7. 当下是AI的"诺基亚时代" 8. "壳"是核心竞争力,Context is Everything 9. 通用与垂直的终局:千江有水千江月 关于产品方法论 10. 生成系统将取代推荐系统 11. 产品架构三层论:DSL→Context→Environment 12. 上下文工程的核心是"降熵" 13. 北极星指标:系统智慧度 14. 环境即标注 关于内容生态 15. 视频是AI时代的"起点"而非终点 16. 物理世界vs理念世界 17. 从"创作"到"表达" 18. 货币变革:从"注意力"到"信任" 关于组织与哲学 19. 组织即环境,员工即智能体 20. 蝴蝶穿花,积极入世 尾声 王冠最爱的食物是白米饭。 在快问快答环节,他说自己不喜欢旅游,也没有全球视野的美食偏好。 白米饭兼容性最强,和任何食物搭配都有滋味。 这或许也隐喻了他做产品的思维:做最基础、最兼容的底座。 在AI的诺基亚时代,大多数人在追逐流量和变现,王冠选择了一条更难的路:造一座视频的图书馆,积累内生数据,等待iPhone时刻。 他说,一代人只有一世。 那就用这一世,做点不一样的事。 --- 基于播客张小珺Jun 商业访谈录,使用Prompt生成。

喜欢摇滚乐、爱钓鱼的PM 网站:https://t.co/vnUpLt752o

avatar for 向阳乔木
向阳乔木
Sun Dec 14 13:05:18
If you can spend a decade showing up, feeling stupid, getting feedback, trying again, feeling stupid again, and eventually getting better, you'll likely be in the top 1% of worldwide earners.

The path is always the same, but few people will actually walk it.

If you can spend a decade showing up, feeling stupid, getting feedback, trying again, feeling stupid again, and eventually getting better, you'll likely be in the top 1% of worldwide earners. The path is always the same, but few people will actually walk it.

The $10M Solopreneur | Helping 100,000+ experts turn their expertise into income.

avatar for Justin Welsh
Justin Welsh
Sun Dec 14 13:02:06
My new video on AI Coding Daily.
I continue experiments with various tools.

I Tried New Cursor Browser Visual Editor: Will I Use It?
https://t.co/pVxdgckdkD

My new video on AI Coding Daily. I continue experiments with various tools. I Tried New Cursor Browser Visual Editor: Will I Use It? https://t.co/pVxdgckdkD

~20 yrs in web-dev, now mostly Laravel. My Laravel courses: https://t.co/HRUAJdMRZL My Youtube channel: https://t.co/qPQAkaov2F

avatar for Povilas Korop | Laravel Courses Creator & Youtuber
Povilas Korop | Laravel Courses Creator & Youtuber
Sun Dec 14 13:00:10
主流 AI 应用如何处理「记忆」?
· ChatGPT:全量注入与轻量摘要 - 更贴心的伙伴
· Claude:按需检索与工具调用 - 更得力的助手

@manthanguptaa 通过「逆向工程」深入研究了 ChatGPT 和 Claude 的记忆与上下文管理机制,意外发现了两种截然不同的方案:“预计算注入派” (ChatGPT) 与 “按需检索工具派” (Claude)。

ChatGPT 的记忆方案:全量注入与轻量摘要
ChatGPT 的核心逻辑是 “每次对话都带上你的背景和近期摘要”。它不依赖模型自己去“想”要不要查记忆,而是系统强制把相关信息塞进每一次的 Prompt 中。

核心架构(4层结构)
1. 会话元数据 [临时]
  · 内容:设备类型、浏览器、大概位置、时区、订阅等级、甚至你的使用习惯(如平均对话深度、常用模型)。
  · 特点:一次性注入,会话结束即销毁。它让模型在当前对话中能根据你的环境(如由暗黑模式、屏幕大小)调整回答,但不会存入长期记忆。

2. 用户记忆 [长期]
  · 内容:明确的事实。例如“我叫 Manthan”、“我是程序员”、“我不喜欢吃香菜”。
  · 机制:有一个专门的工具来增删改。如果你说“记住我叫X”,它会存下来。系统也会根据对话自动捕捉关键事实并请求存储。
  · 使用:这些事实会作为由系统维护的“档案”,每一次对话都会被完整地注入到 Prompt 里。

3. 近期对话摘要 [跨会话]
  · 内容:这是 ChatGPT 最独特的地方。它不会去检索过去的完整对话,而是预先计算好最近 10-15 场对话的轻量级摘要(格式如:时间戳: 标题 || 用户说的片段)。
  · 特点:只包含用户的发言摘要,不包含 AI 的回复。这就像一张“兴趣地图”,让模型知道你最近在关心什么,而不需要消耗大量 Token 去读以前的全文。

4. 当前会话窗口
  · 内容:当前对话的完整记录,直到达到 Token 上限。

Claude 的记忆方案:按需检索与工具调用
Claude 的方案更像是一个 “拥有搜索引擎的各种专员”。它默认不带以前的对话历史,只有在你需要的时候,它才会去“翻旧账”。

核心架构
1. 用户记忆 [长期]
  · 内容:与 ChatGPT 类似,存储关键事实(姓名、职业、偏好等)。
  · 格式:以 XML 格式(<userMemories>...</userMemories>)注入到 System Prompt 中。
  · 机制:支持隐式后台更新和显式用户编辑。

2. 当前会话
  · 内容:当前对话的完整记录。

3. 历史检索工具 [核心差异]
  · Claude 不会自动把之前的对话摘要塞进 Prompt。相反,它配备了两个专用工具,由模型自主决定何时调用:
    · conversation_search: 根据关键词或话题搜索过去的对话。
    · recent_chats: 按时间顺序拉取最近的对话列表。
  · 流程:用户提问 -> Claude 思考“我需要参考以前的对话吗?” -> 如果需要 -> 调用工具检索 -> 获得具体片段 -> 回答用户。

优缺点与使用场景
1. ChatGPT
优点:
  · 无缝衔接:体验非常流畅,哪怕你话题跳跃,它也能通过摘要大概知道背景。
  · 速度快:无需额外的搜索步骤。

缺点:
  · 细节丢失:由于只存摘要,且只存用户的发言摘要,它可能记不清上次它自己具体给出的代码方案,只能记个大概。
  · 干扰风险:有时候不相关的旧摘要可能会干扰当前任务。

最佳场景:
  · 日常闲聊/陪伴:需要它记得你的琐碎喜好。
  · 多任务并行:你同时在问很多不同的话题,需要它快速切换。
  · 浅层连续性任务:比如“继续上周那个故事”,它看一眼摘要就能接着编。

2. Claude
优点:
  · 精准度高:通过搜索,它可以找回几个月前某次对话中具体的 JSON 结构或特定的逻辑设定,而不是模糊的摘要。
  · 上下文纯净:默认不加载无关历史,不仅省 Token,还能避免旧信息的干扰。

缺点:
  · 不够主动:如果模型判断失误,觉得“不需要查历史”,它就会像失忆一样回答你。
  · 慢:工具调用需要时间。

最佳场景:
  · 长期项目开发:比如写代码,“复用我上个月写的那个鉴权模块”,它能搜出来具体的代码。
  · 知识库查询:你需要它基于过去沉淀下来的大量笔记进行深度整合。
  · 复杂逻辑任务:需要极高的上下文准确度,容不得模糊摘要。

补充对比角度:记忆的“分辨率”与“可控性”
除了文章提到的,我认为还有两个角度值得关注:

1. 记忆的分辨率
  · ChatGPT 是“低保真”的缩略图:它看着最近 10 次对话的缩略图在聊天。它知道大概轮廓,但看不清细节。
  · Claude 是“高保真”的探照灯:它平时在黑暗中(不看历史),但一旦打开探照灯(搜索),它能照亮过去的某个具体角落,看得清清楚楚。

2. 开发者 vs 用户的视角
  · ChatGPT 的方案更像是一个成熟的“产品功能”:OpenAI 封装得很好,对用户不可见,体验一致性强,目的是为了留存和活跃度。
  · Claude 的方案更像是一个“智能体能力”:Anthropic 赋予了模型使用工具的能力,这更符合 Agent 的发展方向——即模型不仅是聊天的,更是会使用工具(包括记忆工具)来解决问题的。这在未来处理超长上下文和海量知识库时,上限会更高。

两篇博客原文

主流 AI 应用如何处理「记忆」? · ChatGPT:全量注入与轻量摘要 - 更贴心的伙伴 · Claude:按需检索与工具调用 - 更得力的助手 @manthanguptaa 通过「逆向工程」深入研究了 ChatGPT 和 Claude 的记忆与上下文管理机制,意外发现了两种截然不同的方案:“预计算注入派” (ChatGPT) 与 “按需检索工具派” (Claude)。 ChatGPT 的记忆方案:全量注入与轻量摘要 ChatGPT 的核心逻辑是 “每次对话都带上你的背景和近期摘要”。它不依赖模型自己去“想”要不要查记忆,而是系统强制把相关信息塞进每一次的 Prompt 中。 核心架构(4层结构) 1. 会话元数据 [临时] · 内容:设备类型、浏览器、大概位置、时区、订阅等级、甚至你的使用习惯(如平均对话深度、常用模型)。 · 特点:一次性注入,会话结束即销毁。它让模型在当前对话中能根据你的环境(如由暗黑模式、屏幕大小)调整回答,但不会存入长期记忆。 2. 用户记忆 [长期] · 内容:明确的事实。例如“我叫 Manthan”、“我是程序员”、“我不喜欢吃香菜”。 · 机制:有一个专门的工具来增删改。如果你说“记住我叫X”,它会存下来。系统也会根据对话自动捕捉关键事实并请求存储。 · 使用:这些事实会作为由系统维护的“档案”,每一次对话都会被完整地注入到 Prompt 里。 3. 近期对话摘要 [跨会话] · 内容:这是 ChatGPT 最独特的地方。它不会去检索过去的完整对话,而是预先计算好最近 10-15 场对话的轻量级摘要(格式如:时间戳: 标题 || 用户说的片段)。 · 特点:只包含用户的发言摘要,不包含 AI 的回复。这就像一张“兴趣地图”,让模型知道你最近在关心什么,而不需要消耗大量 Token 去读以前的全文。 4. 当前会话窗口 · 内容:当前对话的完整记录,直到达到 Token 上限。 Claude 的记忆方案:按需检索与工具调用 Claude 的方案更像是一个 “拥有搜索引擎的各种专员”。它默认不带以前的对话历史,只有在你需要的时候,它才会去“翻旧账”。 核心架构 1. 用户记忆 [长期] · 内容:与 ChatGPT 类似,存储关键事实(姓名、职业、偏好等)。 · 格式:以 XML 格式(<userMemories>...</userMemories>)注入到 System Prompt 中。 · 机制:支持隐式后台更新和显式用户编辑。 2. 当前会话 · 内容:当前对话的完整记录。 3. 历史检索工具 [核心差异] · Claude 不会自动把之前的对话摘要塞进 Prompt。相反,它配备了两个专用工具,由模型自主决定何时调用: · conversation_search: 根据关键词或话题搜索过去的对话。 · recent_chats: 按时间顺序拉取最近的对话列表。 · 流程:用户提问 -> Claude 思考“我需要参考以前的对话吗?” -> 如果需要 -> 调用工具检索 -> 获得具体片段 -> 回答用户。 优缺点与使用场景 1. ChatGPT 优点: · 无缝衔接:体验非常流畅,哪怕你话题跳跃,它也能通过摘要大概知道背景。 · 速度快:无需额外的搜索步骤。 缺点: · 细节丢失:由于只存摘要,且只存用户的发言摘要,它可能记不清上次它自己具体给出的代码方案,只能记个大概。 · 干扰风险:有时候不相关的旧摘要可能会干扰当前任务。 最佳场景: · 日常闲聊/陪伴:需要它记得你的琐碎喜好。 · 多任务并行:你同时在问很多不同的话题,需要它快速切换。 · 浅层连续性任务:比如“继续上周那个故事”,它看一眼摘要就能接着编。 2. Claude 优点: · 精准度高:通过搜索,它可以找回几个月前某次对话中具体的 JSON 结构或特定的逻辑设定,而不是模糊的摘要。 · 上下文纯净:默认不加载无关历史,不仅省 Token,还能避免旧信息的干扰。 缺点: · 不够主动:如果模型判断失误,觉得“不需要查历史”,它就会像失忆一样回答你。 · 慢:工具调用需要时间。 最佳场景: · 长期项目开发:比如写代码,“复用我上个月写的那个鉴权模块”,它能搜出来具体的代码。 · 知识库查询:你需要它基于过去沉淀下来的大量笔记进行深度整合。 · 复杂逻辑任务:需要极高的上下文准确度,容不得模糊摘要。 补充对比角度:记忆的“分辨率”与“可控性” 除了文章提到的,我认为还有两个角度值得关注: 1. 记忆的分辨率 · ChatGPT 是“低保真”的缩略图:它看着最近 10 次对话的缩略图在聊天。它知道大概轮廓,但看不清细节。 · Claude 是“高保真”的探照灯:它平时在黑暗中(不看历史),但一旦打开探照灯(搜索),它能照亮过去的某个具体角落,看得清清楚楚。 2. 开发者 vs 用户的视角 · ChatGPT 的方案更像是一个成熟的“产品功能”:OpenAI 封装得很好,对用户不可见,体验一致性强,目的是为了留存和活跃度。 · Claude 的方案更像是一个“智能体能力”:Anthropic 赋予了模型使用工具的能力,这更符合 Agent 的发展方向——即模型不仅是聊天的,更是会使用工具(包括记忆工具)来解决问题的。这在未来处理超长上下文和海量知识库时,上限会更高。 两篇博客原文

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Sun Dec 14 12:42:49
  • Previous
  • 1
  • More pages
  • 779
  • 780
  • 781
  • More pages
  • 5634
  • Next