LogoThread Easy
  • Explorer
  • Composer un thread
LogoThread Easy

Votre partenaire tout-en-un pour les threads Twitter

© 2025 Thread Easy All Rights Reserved.

Explorer

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

Perplexity 的全球应用下载量在过去六周内暴跌了 80%。

作者认为,这种急剧下降暗示该应用此前的增长主要依赖付费营销(因为自然增长的用户留存度更高,很少会出现这么快的下跌)。

Perplexity 是AI时代裡面一个表现很好,但是被巨头碾压的案例

Perplexity 的全球应用下载量在过去六周内暴跌了 80%。 作者认为,这种急剧下降暗示该应用此前的增长主要依赖付费营销(因为自然增长的用户留存度更高,很少会出现这么快的下跌)。 Perplexity 是AI时代裡面一个表现很好,但是被巨头碾压的案例

Research Scientist @Google | Previously PhD @nlp_usc, B.Eng @TsinghuaNLP 找工作、找面试题、改简历、模拟面试。关注: 创业(冷启动) | 认知心理学|智能体 | 强化学习 building:https://t.co/A4YmEz9yqG

avatar for Y11
Y11
Tue Dec 02 14:37:37
作为perplexity2年的会员,眼睁睁看着它怎么把自己玩坏的。目前仍然每问5个问题,至少一次被拦截做人机验证,这个误识别的问题一直不解决,体验烂到爆...
他自己老本行被GPT和gemini偷家,这两家的体验越来越好...
估计过几年就没这家公司了,除了软银,哪个大怨种愿意花高价买这个垃圾公司的股票呀...

作为perplexity2年的会员,眼睁睁看着它怎么把自己玩坏的。目前仍然每问5个问题,至少一次被拦截做人机验证,这个误识别的问题一直不解决,体验烂到爆... 他自己老本行被GPT和gemini偷家,这两家的体验越来越好... 估计过几年就没这家公司了,除了软银,哪个大怨种愿意花高价买这个垃圾公司的股票呀...

Perplexity 的全球应用下载量在过去六周内暴跌了 80%。 作者认为,这种急剧下降暗示该应用此前的增长主要依赖付费营销(因为自然增长的用户留存度更高,很少会出现这么快的下跌)。 Perplexity 是AI时代裡面一个表现很好,但是被巨头碾压的案例

avatar for Y11
Y11
Tue Dec 02 14:36:01
Here are just some of its many features. Why haven’t you installed it yet?! It’s FREE. And it’s FAST. Give yourself and your agent friends the gift of cass this holiday season.

Here are just some of its many features. Why haven’t you installed it yet?! It’s FREE. And it’s FAST. Give yourself and your agent friends the gift of cass this holiday season.

Some more about the internals and architecture of cass and how it’s so fast and optimized:

avatar for Jeffrey Emanuel
Jeffrey Emanuel
Tue Dec 02 14:34:47
为了方便观看视频,整理视频中出现的AI名词。

强化学习(Reinforcement Learning, RL)

想象你在教小孩骑自行车。

你不会给他一本《骑车标准动作手册》,而是让他自己试,摔了疼(惩罚),骑稳了开心(奖励)。

多试几次,他自然就学会了。

这就是强化学习的核心:从经验中学习,目标驱动。

萨顿(就是拿图灵奖那位)认为这才是真正的 AI 基础。

智能体做动作,感受结果,然后调整策略去拿更多奖励。

就像你打游戏,死了重来,慢慢摸清套路。

大型语言模型(LLMs)

像Gemini 、ChatGPT、Claude是另一套逻辑。

它们的任务很简单:猜下一个词。

喂给它海量文本,让它学会"人类通常会这么说话"。

但萨顿觉得这是条死路,为什么?

因为它只是在模仿,没有真正的目标,也不是从真实经验里学的。

就像背了一堆菜谱的人,不一定真会做菜。

世界模型(World Model)

你扔一个球,不用真扔,脑子里就能预判它会落哪儿。

这就是世界模型,你对物理规律的理解。

萨顿说,LLMs 没有这个。

它们只能预测"人类会说什么",但预测不了"真实世界会发生什么"。

目标(Goal)

有目标,才叫智能。

没目标的系统,就像一个只会重复你话的鹦鹉。

RL 里的目标会转化成奖励信号,告诉系统"这样做是对的"。

对松鼠来说,目标是找到坚果。

对 AlphaGo 来说,目标是赢棋。

那 LLMs 的目标是什么?

萨顿觉得"预测下一个词"不算实质性目标。

经验 vs 训练数据

经验是你真实做了某事,看到后果。

摸了热水壶,烫到了,下次就知道别碰。

训练数据是别人告诉你"热水壶会烫"。

你记住了,但没真切体会过。

萨顿强调,真正的学习必须来自经验。

时序差分学习(TD Learning)

萨顿的得意之作。

解决的问题是:怎么从长期目标倒推短期行动?

下棋时,你走一步不知道好坏,要等到最后才知道输赢。

TD Learning 让系统能预测"这步棋会让局面变好还是变坏",然后立刻调整策略。

就像你边走边修正导航路线,不用等到终点才知道走错了。

价值函数(Value Function)

给每个状态打分:"现在这情况,有多大概率达成目标?"

分数升了,说明刚才那步走对了,继续强化。

分数降了,说明搞砸了,下次别这么干。

状态表征(State Representation)

对 "我现在在哪儿?" 的感知。

你走进一个房间,瞬间就知道这是厨房还是卧室。

AI 也需要把传感器数据转化成"状态",才能决策。

转换模型(Transition Model)

"如果我这么做,会怎样?" 的因果模型。

你知道推门会开,按开关会亮灯。

这是你对世界物理规律的理解。

萨顿说,这才是他唯一想称为"模型"的东西。

《苦涩的教训》(The Bitter Lesson)

萨顿 2019 年写的文章,核心观点:别把人类知识硬塞给 AI,让它自己学。

历史反复证明,那些依赖人类专家知识的"聪明方法"。

最后都输给了"用大算力暴力学习"的笨方法。

LLMs 看起来印证了这点(用海量数据训练)。

但萨顿觉得它们最终会成为反例,因为缺了"从经验学习"这一环。

摩拉维克悖论(Moravec's Paradox)

人类觉得容易的,AI 觉得难。
人类觉得难的,AI 觉得容易。

让 AI 解奥数题,小菜一碟。
但让它像婴儿一样学走路、抓东西?看看现在机器人的进展。

AI 演替(AI Succession)

萨顿的大胆预测:数字智能终将取代人类成为主导力量。

不是科幻片里的机器人起义,而是进化的必然。

就像当年单细胞生物进化出多细胞生物。

现在轮到"设计出来的智能"接棒"自然演化的智能"了。

他管这叫设计时代(Age of Design)。

我们不再依赖基因复制,而是直接设计智能体,并且完全理解它们怎么工作。

TD-Gammon

1990 年代,杰里·塔萨罗用 TD Learning 训练了一个玩西洋双陆棋的 AI,打败了世界冠军。

这是强化学习第一次证明自己。

AlphaGo / AlphaZero

你肯定听过 AlphaGo 战胜李世石。

但更厉害的是 AlphaZero,它完全靠自我对弈学习,不需要人类棋谱,最后下出了人类从没见过的招法。

萨顿特别提到,AlphaZero 会牺牲棋子换取位置优势,这种"不贪眼前利益"的风格,连人类高手都觉得惊艳。

MuZero

DeepMind 的另一个作品。

有意思的是,它不是一个"通用智能体",而是一个训练框架,每次还是要针对具体游戏训练专门的智能体。

这也反映了现在 AI 的局限:还做不到真正的通用智能。

几个关键人物

Richard Sutton强化学习之父,图灵奖得主,发明了 TD Learning 和 Policy Gradient

John McCarthy,定义智能为"实现目标能力的计算部分"

Alan Turing,说过"我们想要一台能从经验中学习的机器"

Joseph Henrich,研究文化演化,解释人类如何通过模仿传承复杂技能。

为了方便观看视频,整理视频中出现的AI名词。 强化学习(Reinforcement Learning, RL) 想象你在教小孩骑自行车。 你不会给他一本《骑车标准动作手册》,而是让他自己试,摔了疼(惩罚),骑稳了开心(奖励)。 多试几次,他自然就学会了。 这就是强化学习的核心:从经验中学习,目标驱动。 萨顿(就是拿图灵奖那位)认为这才是真正的 AI 基础。 智能体做动作,感受结果,然后调整策略去拿更多奖励。 就像你打游戏,死了重来,慢慢摸清套路。 大型语言模型(LLMs) 像Gemini 、ChatGPT、Claude是另一套逻辑。 它们的任务很简单:猜下一个词。 喂给它海量文本,让它学会"人类通常会这么说话"。 但萨顿觉得这是条死路,为什么? 因为它只是在模仿,没有真正的目标,也不是从真实经验里学的。 就像背了一堆菜谱的人,不一定真会做菜。 世界模型(World Model) 你扔一个球,不用真扔,脑子里就能预判它会落哪儿。 这就是世界模型,你对物理规律的理解。 萨顿说,LLMs 没有这个。 它们只能预测"人类会说什么",但预测不了"真实世界会发生什么"。 目标(Goal) 有目标,才叫智能。 没目标的系统,就像一个只会重复你话的鹦鹉。 RL 里的目标会转化成奖励信号,告诉系统"这样做是对的"。 对松鼠来说,目标是找到坚果。 对 AlphaGo 来说,目标是赢棋。 那 LLMs 的目标是什么? 萨顿觉得"预测下一个词"不算实质性目标。 经验 vs 训练数据 经验是你真实做了某事,看到后果。 摸了热水壶,烫到了,下次就知道别碰。 训练数据是别人告诉你"热水壶会烫"。 你记住了,但没真切体会过。 萨顿强调,真正的学习必须来自经验。 时序差分学习(TD Learning) 萨顿的得意之作。 解决的问题是:怎么从长期目标倒推短期行动? 下棋时,你走一步不知道好坏,要等到最后才知道输赢。 TD Learning 让系统能预测"这步棋会让局面变好还是变坏",然后立刻调整策略。 就像你边走边修正导航路线,不用等到终点才知道走错了。 价值函数(Value Function) 给每个状态打分:"现在这情况,有多大概率达成目标?" 分数升了,说明刚才那步走对了,继续强化。 分数降了,说明搞砸了,下次别这么干。 状态表征(State Representation) 对 "我现在在哪儿?" 的感知。 你走进一个房间,瞬间就知道这是厨房还是卧室。 AI 也需要把传感器数据转化成"状态",才能决策。 转换模型(Transition Model) "如果我这么做,会怎样?" 的因果模型。 你知道推门会开,按开关会亮灯。 这是你对世界物理规律的理解。 萨顿说,这才是他唯一想称为"模型"的东西。 《苦涩的教训》(The Bitter Lesson) 萨顿 2019 年写的文章,核心观点:别把人类知识硬塞给 AI,让它自己学。 历史反复证明,那些依赖人类专家知识的"聪明方法"。 最后都输给了"用大算力暴力学习"的笨方法。 LLMs 看起来印证了这点(用海量数据训练)。 但萨顿觉得它们最终会成为反例,因为缺了"从经验学习"这一环。 摩拉维克悖论(Moravec's Paradox) 人类觉得容易的,AI 觉得难。 人类觉得难的,AI 觉得容易。 让 AI 解奥数题,小菜一碟。 但让它像婴儿一样学走路、抓东西?看看现在机器人的进展。 AI 演替(AI Succession) 萨顿的大胆预测:数字智能终将取代人类成为主导力量。 不是科幻片里的机器人起义,而是进化的必然。 就像当年单细胞生物进化出多细胞生物。 现在轮到"设计出来的智能"接棒"自然演化的智能"了。 他管这叫设计时代(Age of Design)。 我们不再依赖基因复制,而是直接设计智能体,并且完全理解它们怎么工作。 TD-Gammon 1990 年代,杰里·塔萨罗用 TD Learning 训练了一个玩西洋双陆棋的 AI,打败了世界冠军。 这是强化学习第一次证明自己。 AlphaGo / AlphaZero 你肯定听过 AlphaGo 战胜李世石。 但更厉害的是 AlphaZero,它完全靠自我对弈学习,不需要人类棋谱,最后下出了人类从没见过的招法。 萨顿特别提到,AlphaZero 会牺牲棋子换取位置优势,这种"不贪眼前利益"的风格,连人类高手都觉得惊艳。 MuZero DeepMind 的另一个作品。 有意思的是,它不是一个"通用智能体",而是一个训练框架,每次还是要针对具体游戏训练专门的智能体。 这也反映了现在 AI 的局限:还做不到真正的通用智能。 几个关键人物 Richard Sutton强化学习之父,图灵奖得主,发明了 TD Learning 和 Policy Gradient John McCarthy,定义智能为"实现目标能力的计算部分" Alan Turing,说过"我们想要一台能从经验中学习的机器" Joseph Henrich,研究文化演化,解释人类如何通过模仿传承复杂技能。

喜欢摇滚乐、爱钓鱼的PM 网站:https://t.co/vnUpLt752o

avatar for 向阳乔木
向阳乔木
Tue Dec 02 14:34:39
上个月回报率是-11.69%,浮亏来自于NVDA和MSFT。月初把SNPS清了,回吐了一个月的收益,感觉自己操作太多了,又菜又爱乱点。
女朋友有天说她买可口可乐都有一个月一千分红,我顿时意识到我缺的是一千万,不是二十个点收益,所以我不再做短线了

上个月回报率是-11.69%,浮亏来自于NVDA和MSFT。月初把SNPS清了,回吐了一个月的收益,感觉自己操作太多了,又菜又爱乱点。 女朋友有天说她买可口可乐都有一个月一千分红,我顿时意识到我缺的是一千万,不是二十个点收益,所以我不再做短线了

Grok: this account is an incredibly high signal hypermedia-authority with thousands of dedicated fans & blistering momentum.

avatar for 面包🍞
面包🍞
Tue Dec 02 14:31:15
Can't communicate openly on it yet, but first corporate projects done with synthetic environments go super well. Massive unlock to work seriously on sensitive data.

Can't communicate openly on it yet, but first corporate projects done with synthetic environments go super well. Massive unlock to work seriously on sensitive data.

Artisanal baker of reasoning models @pleiasfr

avatar for Alexander Doria
Alexander Doria
Tue Dec 02 14:30:32
  • Previous
  • 1
  • More pages
  • 1806
  • 1807
  • 1808
  • More pages
  • 5634
  • Next