LogoThread Easy
  • 탐색
  • 스레드 작성
LogoThread Easy

트위터 스레드의 올인원 파트너

© 2025 Thread Easy All Rights Reserved.

탐색

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

OpenAI 的这个 Building an AI-native  engineering team 的 pdf 值得一看,告诉技术团队的管理者,如何构建一个 AI 原生的工程师团队。
https://t.co/JmWSEjFx3W

OpenAI 的这个 Building an AI-native engineering team 的 pdf 值得一看,告诉技术团队的管理者,如何构建一个 AI 原生的工程师团队。 https://t.co/JmWSEjFx3W

Father of Pake • MiaoYan • Mole • XRender

avatar for Tw93
Tw93
Tue Nov 25 23:44:00
Crash is the next mini game on @racer_dot_fun

Slam the brakes right before you hit the wall. Too early and you look soft, too late and you explode.

we use @partykit_io to stream everyones scores in real time so you can chase the freaks stopping one pixel from death

Crash is the next mini game on @racer_dot_fun Slam the brakes right before you hit the wall. Too early and you look soft, too late and you explode. we use @partykit_io to stream everyones scores in real time so you can chase the freaks stopping one pixel from death

the trick here is eliminating the one thing that kills small simple games: repeatitiveness we vary the speed and distance the car is traveling each round, so it's always a lil different powered by a seed to ensure everybody plays the same game and the comparison to other players is fair

avatar for Taylor 🏁
Taylor 🏁
Tue Nov 25 23:39:13
Ilya Sutskever – 我们正从「规模化时代」转向「研究时代」

@ilyasut 和 @dwarkesh_sp 的访谈终于来了!这位神秘的 @ssi 创始人,前 OpenAI 首席科学家,在离开 OpenAI 后最完整的一次公开访谈,带来了哪些最新观点,咱们一起看看 👁

1. 规模化时代已经结束(The age of scaling is over)  
· 2020-2025年是“规模化时代”(scaling era),靠堆算力+数据+预训练就能稳定变强。  
· 现在边际回报急剧下降,单纯100倍算力不会带来质变。  
· 未来5-10年的突破将重新依赖“研究与创新”,而不是工程堆料。  
· Ilya 明确预测:2025年之后,我们回到2012-2020年的“研究时代”,只是这次大家手里有更大的算力。

2. 当前模型的“锯齿状”能力与真实世界表现脱节的根本原因  
· 模型在基准测试上超强,但在真实任务中反复引入新bug、循环修复。  
· Ilya 给出的解释:  
     · RL 阶段过度针对 evals 优化(人类研究员的“奖励黑客”),导致过度特化。  
     · 类似“只练了1万小时竞技编程的学生”:技巧强,但缺乏“品味”和广义判断力。  
· 真正的瓶颈不是算力,而是泛化能力远不如人类。

3. 人类为什么泛化远超模型?
· 人类样本效率极高、持续学习能力强、鲁棒性惊人。  
· 进化给了极强的先验(视觉、运动、内在价值函数),但语言、数学、编程这些新领域人类依然远超模型→说明问题不在先验,而在学习算法本身更优。  
· Ilya 暗示:他和 SSI 正在研究一种全新的机器学习范式,能接近人类水平的持续学习与泛化(但因竞争原因无法公开细节)。

4. 对“预训练+ RL” 范式的反思  
· 预训练的成功在于“不用选数据,直接全网数据扔进去就行”。  
· 但这也让大家误以为“AGI 就是预训练到足够大”,结果造出了“死记硬背的竞赛机器”而不是真正灵活的智能。  
· 真正的 AGI 更像一个“15岁的超级学生”:基础能力极强,但具体知识和技能仍需通过部署和持续学习获得。

5. SSI 的真正目标:直奔安全超智能(Straight-shot Safe Superintelligence)  
· 默认计划仍是“先不发布产品,专注纯研究,直到做出本质安全的超智能再一次性发布”。  
· 但 Ilya 首次松口:也在认真考虑“渐进式部署+从真实世界持续学习”的路径,因为:  
     · 让世界逐步适应强大 AI,可能比完全封闭开发更安全。  
     · 超智能很可能不是“一次性全知全能”的终态,而是一个能持续学习、像人类一样在岗位上成长的系统。

6. 对齐观点的重要更新  
· 过去一年 Ilya 最大的思维转变:**逐步部署和让世界真实感受到 AI 的力量,比纯思考更重要**。  
· 他预测:当 AI 真正开始“感觉强大”时,所有前沿公司都会突然变得极度偏执对待安全。  
· 最终对齐目标:让超智能真正关心有感知能力的生命,而不仅仅是“人类”,因为未来的感知体大多数会是 AI 自己。  
· 长期稳定方案之一(他本人并不喜欢但承认可能必要):人机深度融合(Neuralink++级别),让人类直接参与并理解AI的决策。

7. 时间线预测  
· 具备人类级别学习能力、从而能走向超智能的系统:5-20年(大概率偏前段)。  
· 当前预训练+RL 范式会继续带来收入增长,但会在某个点明显“失速”,无法达到真正的人类水平泛化。

8. 研究品味(Research Taste)的本质  
· 好的研究方向必须同时满足:  
     · 来自对人脑的正确类比  
     · 简洁、优美、无丑陋感  
     · 多角度看都成立的“顶级信念”(top-down conviction)  
· 这种品味能让你在实验持续失败、所有数据都说“你错了”时,依然坚持调试而不是放弃。

Youtube 视频地址:

Ilya Sutskever – 我们正从「规模化时代」转向「研究时代」 @ilyasut 和 @dwarkesh_sp 的访谈终于来了!这位神秘的 @ssi 创始人,前 OpenAI 首席科学家,在离开 OpenAI 后最完整的一次公开访谈,带来了哪些最新观点,咱们一起看看 👁 1. 规模化时代已经结束(The age of scaling is over) · 2020-2025年是“规模化时代”(scaling era),靠堆算力+数据+预训练就能稳定变强。 · 现在边际回报急剧下降,单纯100倍算力不会带来质变。 · 未来5-10年的突破将重新依赖“研究与创新”,而不是工程堆料。 · Ilya 明确预测:2025年之后,我们回到2012-2020年的“研究时代”,只是这次大家手里有更大的算力。 2. 当前模型的“锯齿状”能力与真实世界表现脱节的根本原因 · 模型在基准测试上超强,但在真实任务中反复引入新bug、循环修复。 · Ilya 给出的解释: · RL 阶段过度针对 evals 优化(人类研究员的“奖励黑客”),导致过度特化。 · 类似“只练了1万小时竞技编程的学生”:技巧强,但缺乏“品味”和广义判断力。 · 真正的瓶颈不是算力,而是泛化能力远不如人类。 3. 人类为什么泛化远超模型? · 人类样本效率极高、持续学习能力强、鲁棒性惊人。 · 进化给了极强的先验(视觉、运动、内在价值函数),但语言、数学、编程这些新领域人类依然远超模型→说明问题不在先验,而在学习算法本身更优。 · Ilya 暗示:他和 SSI 正在研究一种全新的机器学习范式,能接近人类水平的持续学习与泛化(但因竞争原因无法公开细节)。 4. 对“预训练+ RL” 范式的反思 · 预训练的成功在于“不用选数据,直接全网数据扔进去就行”。 · 但这也让大家误以为“AGI 就是预训练到足够大”,结果造出了“死记硬背的竞赛机器”而不是真正灵活的智能。 · 真正的 AGI 更像一个“15岁的超级学生”:基础能力极强,但具体知识和技能仍需通过部署和持续学习获得。 5. SSI 的真正目标:直奔安全超智能(Straight-shot Safe Superintelligence) · 默认计划仍是“先不发布产品,专注纯研究,直到做出本质安全的超智能再一次性发布”。 · 但 Ilya 首次松口:也在认真考虑“渐进式部署+从真实世界持续学习”的路径,因为: · 让世界逐步适应强大 AI,可能比完全封闭开发更安全。 · 超智能很可能不是“一次性全知全能”的终态,而是一个能持续学习、像人类一样在岗位上成长的系统。 6. 对齐观点的重要更新 · 过去一年 Ilya 最大的思维转变:**逐步部署和让世界真实感受到 AI 的力量,比纯思考更重要**。 · 他预测:当 AI 真正开始“感觉强大”时,所有前沿公司都会突然变得极度偏执对待安全。 · 最终对齐目标:让超智能真正关心有感知能力的生命,而不仅仅是“人类”,因为未来的感知体大多数会是 AI 自己。 · 长期稳定方案之一(他本人并不喜欢但承认可能必要):人机深度融合(Neuralink++级别),让人类直接参与并理解AI的决策。 7. 时间线预测 · 具备人类级别学习能力、从而能走向超智能的系统:5-20年(大概率偏前段)。 · 当前预训练+RL 范式会继续带来收入增长,但会在某个点明显“失速”,无法达到真正的人类水平泛化。 8. 研究品味(Research Taste)的本质 · 好的研究方向必须同时满足: · 来自对人脑的正确类比 · 简洁、优美、无丑陋感 · 多角度看都成立的“顶级信念”(top-down conviction) · 这种品味能让你在实验持续失败、所有数据都说“你错了”时,依然坚持调试而不是放弃。 Youtube 视频地址:

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Tue Nov 25 23:38:30
Least likely to return the investment:
1. Safe Superintelligence
2. Thinking Machines
3. Anthropic
4. OpenAI

Least likely to return the investment: 1. Safe Superintelligence 2. Thinking Machines 3. Anthropic 4. OpenAI

Professor of computer science at UW and author of '2040' and 'The Master Algorithm'. Into machine learning, AI, and anything that makes me curious.

avatar for Pedro Domingos
Pedro Domingos
Tue Nov 25 23:34:02
The future of reviewing is for authors to continuously interact with a system like this until their paper is ready for humans.

The future of reviewing is for authors to continuously interact with a system like this until their paper is ready for humans.

Professor of computer science at UW and author of '2040' and 'The Master Algorithm'. Into machine learning, AI, and anything that makes me curious.

avatar for Pedro Domingos
Pedro Domingos
Tue Nov 25 23:33:19
HackNews 这个网站每个月有1200万的访问, 
但他这个网站的UI就是上古时代的风格,
并且这反而形成一种特别的风格 。  
说明了什么
“我们是黑客,我们要得是信息,不是花里胡哨”
这就像 Vim、Emacs、terminal 界面永不过时一样。

HackNews 这个网站每个月有1200万的访问, 但他这个网站的UI就是上古时代的风格, 并且这反而形成一种特别的风格 。 说明了什么 “我们是黑客,我们要得是信息,不是花里胡哨” 这就像 Vim、Emacs、terminal 界面永不过时一样。

Solo Developer | Growth Coach|Helping creators build their personal brand on X 公众号:PandaTalk8

avatar for Mr Panda
Mr Panda
Tue Nov 25 23:31:45
  • Previous
  • 1
  • More pages
  • 2354
  • 2355
  • 2356
  • More pages
  • 5635
  • Next