LogoThread Easy
  • Explorar
  • Criar thread
LogoThread Easy

Seu parceiro completo para threads do Twitter

© 2025 Thread Easy All Rights Reserved.

Explorar

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

RT @taylorotwell: Woke up at 5am in Vegas and modernized the default Laravel email template with help from @tillytokdemir 🥰 https://t.co/J6…

RT @taylorotwell: Woke up at 5am in Vegas and modernized the default Laravel email template with help from @tillytokdemir 🥰 https://t.co/J6…

~20 yrs in web-dev, now mostly Laravel. My Laravel courses: https://t.co/HRUAJdMRZL My Youtube channel: https://t.co/qPQAkaov2F

avatar for Povilas Korop | Laravel Courses Creator & Youtuber
Povilas Korop | Laravel Courses Creator & Youtuber
Tue Dec 02 14:06:01
In partnership with @GivingTuesday, we're launching Claude for Nonprofits.

It has discounted plans, new integrations, and free training to help nonprofits spend less time on admin and more time on their missions: https://t.co/aQJFzLXUTO

In partnership with @GivingTuesday, we're launching Claude for Nonprofits. It has discounted plans, new integrations, and free training to help nonprofits spend less time on admin and more time on their missions: https://t.co/aQJFzLXUTO

We're an AI safety and research company that builds reliable, interpretable, and steerable AI systems. Talk to our AI assistant @claudeai on https://t.co/FhDI3KQh0n.

avatar for Anthropic
Anthropic
Tue Dec 02 14:04:31
LLM已死?强化学习教父认为大语言模型是条死路。

说这个暴论的人叫理查德·萨顿(Richard Sutton),强化学习创始人之一。

他的观点很直接:LLM不是基础人工智能,它只是AI领域的一阵潮流。

真正的基础AI应该是强化学习。

观点很激进,但他给出的理由值得认真想。

第一个致命问题:没有目标的"智能"

萨顿抛出了一个质问:没有目标,还能叫智能吗?

他引用约翰·麦卡锡定义,智能的本质是 "实现目标能力的计算部分"。

按这个标准,LLM有什么问题呢?

LLM的所谓"目标"只是预测下一个词。

你给它一段文字,它告诉你接下来最可能出现什么词。

但这算目标吗?

萨顿说得很直白:Token 自己跑到你面前,你预测Token,但你根本影响不了它们。

这不是关于外部世界的目标,这仅仅是文字接龙游戏。

没有目标,就没有"正确"的定义。

什么叫做对的事情?

在强化学习里,答案很清楚:能给你带来奖励的事情。

但LLM呢?它连对错的标准都是模糊的。

第二个硬伤:没有真实的世界模型

LLM擅长什么?模仿人类。

它能模仿人怎么说话,怎么写作,甚至怎么思考。

但萨顿说:模仿语言,不等于理解世界。

LLM能预测一个人会说什么,但它预测不了将会发生什么。

这个区别太重要了。

真正的世界模型应该让你能够预测行为的后果。

比如,我把杯子推下桌子,它会掉到地上摔碎。

这是对物理世界的理解。

但LLM呢?它只知道"人们通常会说杯子会摔碎",这是两码事。

更关键的是,LLM不会从意外中学习。

假设你预测某件事会发生A,结果发生了B。

一个真正理解世界的系统会说:"咦,我错了,我需要调整我的模型。"但LLM不会。

它没有这种"意外"的概念,因为模型从来不是在预测真实世界,它只是在预测训练数据里人们会怎么说。

萨顿的总结很犀利:LLM从训练数据中学习,不是从经验中学习。

经验是什么?是你做了某件事,然后看到实际发生了什么。

这种第一手的互动,才是真正学习的来源。

第三个悖论:可扩展性的陷阱

萨顿写过一篇著名的文章叫《苦涩的教训》(The Bitter Lesson)。

核心思想:历史反复证明,依赖人类知识的方法最终都会输给纯粹依靠计算和学习的方法。

很多人觉得LLM正是这个教训的最新例证。

你看,用海量数据和算力训练出来的模型,不就超越了传统的规则系统吗?

但萨顿说:等着瞧,LLM最终会成为这个教训的反面教材。

为什么?因为LLM本质上还是在依赖人类知识。

它学的是人类写的文字,说的话,做的事。

这些都是人类知识的结晶。

萨顿认为,真正具有可扩展性的方法是什么?

是系统自己去尝试,自己去观察什么有效,什么无效。

不需要任何人告诉它对错,它通过与世界的互动自己学会。

这就是强化学习的核心:主体有目标,主体采取行动,主体观察结果,主体调整策略。

这个循环可以无限持续,不断进化。

而LLM呢?它的学习在训练结束那一刻就停止了。

它没法在真实世界里持续学习,因为它根本不知道怎么与世界互动。

LLM就像一个语言模仿大师。

它能完美背诵人类所有的剧本和对话,你问它什么,它都能给你一个听起来很像样的回答。

但它缺少什么?缺少行动者的能力。

它不知道自己想要什么(没有目标)。

也不知道说这些话在真实世界里会产生什么后果(没有世界模型)。

它只是一个超级复杂的文字接龙机器。

真正的智能应该是什么样?

应该是一个主体,它有自己的目标,它能与世界互动,它从每次互动中学习,它不断调整自己的策略去更好地实现目标。

这才是萨顿眼中的"基础AI"。

萨顿的观点不一定全对,但他提的问题值得思考。

也许LLM不会"死",它们在很多应用场景下依然有价值。

但如果我们的目标是实现真正的通用人工智能AGI。

萨顿的警告值得认真对待:

光会说话,不等于会思考。光会模仿,不等于会学习。

真正的智能,可能需要目标、需要行动、需要与世界真实的互动。

这条路,我们才刚刚开始走。
---

以上由AI生成,人工编辑排版。

视频见评论区

LLM已死?强化学习教父认为大语言模型是条死路。 说这个暴论的人叫理查德·萨顿(Richard Sutton),强化学习创始人之一。 他的观点很直接:LLM不是基础人工智能,它只是AI领域的一阵潮流。 真正的基础AI应该是强化学习。 观点很激进,但他给出的理由值得认真想。 第一个致命问题:没有目标的"智能" 萨顿抛出了一个质问:没有目标,还能叫智能吗? 他引用约翰·麦卡锡定义,智能的本质是 "实现目标能力的计算部分"。 按这个标准,LLM有什么问题呢? LLM的所谓"目标"只是预测下一个词。 你给它一段文字,它告诉你接下来最可能出现什么词。 但这算目标吗? 萨顿说得很直白:Token 自己跑到你面前,你预测Token,但你根本影响不了它们。 这不是关于外部世界的目标,这仅仅是文字接龙游戏。 没有目标,就没有"正确"的定义。 什么叫做对的事情? 在强化学习里,答案很清楚:能给你带来奖励的事情。 但LLM呢?它连对错的标准都是模糊的。 第二个硬伤:没有真实的世界模型 LLM擅长什么?模仿人类。 它能模仿人怎么说话,怎么写作,甚至怎么思考。 但萨顿说:模仿语言,不等于理解世界。 LLM能预测一个人会说什么,但它预测不了将会发生什么。 这个区别太重要了。 真正的世界模型应该让你能够预测行为的后果。 比如,我把杯子推下桌子,它会掉到地上摔碎。 这是对物理世界的理解。 但LLM呢?它只知道"人们通常会说杯子会摔碎",这是两码事。 更关键的是,LLM不会从意外中学习。 假设你预测某件事会发生A,结果发生了B。 一个真正理解世界的系统会说:"咦,我错了,我需要调整我的模型。"但LLM不会。 它没有这种"意外"的概念,因为模型从来不是在预测真实世界,它只是在预测训练数据里人们会怎么说。 萨顿的总结很犀利:LLM从训练数据中学习,不是从经验中学习。 经验是什么?是你做了某件事,然后看到实际发生了什么。 这种第一手的互动,才是真正学习的来源。 第三个悖论:可扩展性的陷阱 萨顿写过一篇著名的文章叫《苦涩的教训》(The Bitter Lesson)。 核心思想:历史反复证明,依赖人类知识的方法最终都会输给纯粹依靠计算和学习的方法。 很多人觉得LLM正是这个教训的最新例证。 你看,用海量数据和算力训练出来的模型,不就超越了传统的规则系统吗? 但萨顿说:等着瞧,LLM最终会成为这个教训的反面教材。 为什么?因为LLM本质上还是在依赖人类知识。 它学的是人类写的文字,说的话,做的事。 这些都是人类知识的结晶。 萨顿认为,真正具有可扩展性的方法是什么? 是系统自己去尝试,自己去观察什么有效,什么无效。 不需要任何人告诉它对错,它通过与世界的互动自己学会。 这就是强化学习的核心:主体有目标,主体采取行动,主体观察结果,主体调整策略。 这个循环可以无限持续,不断进化。 而LLM呢?它的学习在训练结束那一刻就停止了。 它没法在真实世界里持续学习,因为它根本不知道怎么与世界互动。 LLM就像一个语言模仿大师。 它能完美背诵人类所有的剧本和对话,你问它什么,它都能给你一个听起来很像样的回答。 但它缺少什么?缺少行动者的能力。 它不知道自己想要什么(没有目标)。 也不知道说这些话在真实世界里会产生什么后果(没有世界模型)。 它只是一个超级复杂的文字接龙机器。 真正的智能应该是什么样? 应该是一个主体,它有自己的目标,它能与世界互动,它从每次互动中学习,它不断调整自己的策略去更好地实现目标。 这才是萨顿眼中的"基础AI"。 萨顿的观点不一定全对,但他提的问题值得思考。 也许LLM不会"死",它们在很多应用场景下依然有价值。 但如果我们的目标是实现真正的通用人工智能AGI。 萨顿的警告值得认真对待: 光会说话,不等于会思考。光会模仿,不等于会学习。 真正的智能,可能需要目标、需要行动、需要与世界真实的互动。 这条路,我们才刚刚开始走。 --- 以上由AI生成,人工编辑排版。 视频见评论区

经常读AI论文解读的话,经常会听到《苦涩的教训》这篇文章。 穿花衣服的大爷,说话真的很犀利 https://t.co/QfaCNFRCVO

avatar for 向阳乔木
向阳乔木
Tue Dec 02 14:01:13
RT @MichaelDell: $6.25 billion. 25 million children. $250 each.

Susan and I believe the smartest investment we can make is in children. Th…

RT @MichaelDell: $6.25 billion. 25 million children. $250 each. Susan and I believe the smartest investment we can make is in children. Th…

Partner @a16z investing in American Dynamism 🇺🇸. Frontier technologies, markets, & culture.

avatar for Oliver Hsu
Oliver Hsu
Tue Dec 02 13:54:01
7 weeks ago i set out to make a $5,000/month app in 10 weeks... from zero! 

so far the app -that didn't exist 7 weeks ago- is at $4307 MRR. 

the app is also FREEMIUM, meaning there is no hard paywall - hence why 90,000 downloads later the app is still only making this much

BUT that's fine, its a lot of fun to have so much feedback from users and things to work on constantly, i think this app could actually be a premium app in its niche and i plan on making it better with user feedback

total proceeds made from this app is currently $9877 USD (or $13,830 CAD!!)

we keep going @lovelee_app <3

7 weeks ago i set out to make a $5,000/month app in 10 weeks... from zero! so far the app -that didn't exist 7 weeks ago- is at $4307 MRR. the app is also FREEMIUM, meaning there is no hard paywall - hence why 90,000 downloads later the app is still only making this much BUT that's fine, its a lot of fun to have so much feedback from users and things to work on constantly, i think this app could actually be a premium app in its niche and i plan on making it better with user feedback total proceeds made from this app is currently $9877 USD (or $13,830 CAD!!) we keep going @lovelee_app <3

curious guy creating things @ https://t.co/HXWladhJaA - up and coming wife guy

avatar for jack friks
jack friks
Tue Dec 02 13:53:22
Podscan found a mention of Podscan in the 11th minute of @startupspod 9min after the episode was released.

I'll never tire of being amazed by this tech. It finds mentions before anyone even had the chance to listen to the whole show.

(Unless you listen on 2x like @robwalling)🤣

Podscan found a mention of Podscan in the 11th minute of @startupspod 9min after the episode was released. I'll never tire of being amazed by this tech. It finds mentions before anyone even had the chance to listen to the whole show. (Unless you listen on 2x like @robwalling)🤣

Building https://t.co/od97B0HVrk and https://t.co/666FnyVVE0 in Public. Raising all the boats with kindness. 🎙️ https://t.co/6w69DZmi8H · ✍️ https://t.co/lpnor5rsTW

avatar for Arvid Kahl
Arvid Kahl
Tue Dec 02 13:51:24
  • Previous
  • 1
  • More pages
  • 1810
  • 1811
  • 1812
  • More pages
  • 5634
  • Next