LogoThread Easy
  • Explorar
  • Criar thread
LogoThread Easy

Seu parceiro completo para threads do Twitter

© 2025 Thread Easy All Rights Reserved.

Explorar

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

RT @tonysilveti: Something else I noticed about the TRM paper today: if you do multiple backpropagation-free passes but then do backpropaga…

RT @tonysilveti: Something else I noticed about the TRM paper today: if you do multiple backpropagation-free passes but then do backpropaga…

Root node of the web of threads: https://t.co/ifH80GcLpo

avatar for James Torre
James Torre
Sat Nov 01 20:10:52
Want to learn how to build a lean, profitable, one-person business you love?

I share a strategy you can implement immediately every Saturday morning in my newsletter.

Always 4 minutes (or less) to read.

Join us here: https://t.co/idNByMf6vn

Want to learn how to build a lean, profitable, one-person business you love? I share a strategy you can implement immediately every Saturday morning in my newsletter. Always 4 minutes (or less) to read. Join us here: https://t.co/idNByMf6vn

The $10M Solopreneur | Helping 100,000+ burned-out corporate professionals build six-figure, one-person online businesses at https://t.co/27OAdtwjh5

avatar for Justin Welsh
Justin Welsh
Sat Nov 01 20:10:18
RT @JuiceSharp: Everyone's obsessed with making AI "smarter" through better prompts, bigger models, or fancier architectures. But for pract…

RT @JuiceSharp: Everyone's obsessed with making AI "smarter" through better prompts, bigger models, or fancier architectures. But for pract…

Asst professor @MIT EECS & CSAIL (@nlp_mit). Author of https://t.co/VgyLxl0oa1 and https://t.co/ZZaSzaRaZ7 (@DSPyOSS). Prev: CS PhD @StanfordNLP. Research @Databricks.

avatar for Omar Khattab
Omar Khattab
Sat Nov 01 20:04:49
RT @TrentTelenko: The US Army III Corps did something similar in 1990 when the Ft Hood Aviation brigade was supposed to deploy for Desert S…

RT @TrentTelenko: The US Army III Corps did something similar in 1990 when the Ft Hood Aviation brigade was supposed to deploy for Desert S…

Root node of the web of threads: https://t.co/ifH80GcLpo

avatar for James Torre
James Torre
Sat Nov 01 20:03:43
I’m turning this app into a mini pSEO project 🤗

https://t.co/D0pZJ13o6c

I’m turning this app into a mini pSEO project 🤗 https://t.co/D0pZJ13o6c

🧑‍💻 https://t.co/Y30jsaHwz9 $20K/m ⚡️ https://t.co/vatLDmi9UG $17K/m 📈 https://t.co/3EDxln5mdi $16K/m ⭐️ https://t.co/MZc8tG9xWi $8K/m 🧬 https://t.co/SfrVXVtmdA $.5K/m 🍜 https://t.co/r07EpGSYJ2 $0K/m 🧾 https://t.co/7olaOzV8Xd $0/m +18 https://t.co/4zCWHGJp1S

avatar for Marc Lou
Marc Lou
Sat Nov 01 19:56:44
今天 X 上《All things AI w @altcap @sama & @satyanadella》这个播客最火,各种切片。

因为播客中做客的可是 OpenAI 的 CEO 山姆·奥特曼(Sam Altman)和微软的 CEO 萨提亚·纳德拉(Satya Nadella)。

两位大佬聊了很多关于 AI 未来、算力投入、微软与 OpenAI 的合作等话题,加上前几天微软和 OpenAI 刚宣布了新的合作协议,并且他们在播客中也聊到了这个协议的细节,所以备受关注。

先总结一下这场对话的几个关键点:

- 1.4 万亿的算力豪赌:面对“蛇吞象”的质疑(营收 130 亿却敢承诺 1.4 万亿算力投入),Sam 认为这 1.4 万亿不是“负债”,而是他们实现下一个目标的“弹药”。在他们看来,唯一的风险就是弹药不够。

- 真正的瓶颈不是芯片:纳德拉亲口承认,今天微软最大的瓶颈,甚至不是缺 GPU 芯片,而是缺能把芯片插进去的数据中心和配套的电力。物理世界的施工进度,成了数字世界狂飙的最大限制。

- 微软的“王牌”:在新敲定的协议里,微软的王牌不是那 27% 的股权,而是获得了 OpenAI 最强 AI 引擎长达七年的“免版税使用权”。用纳德拉的话说,这等于“免费拿到了一个前沿模型”。

OpenAI 的核心模型(即“无状态 API”,你可以简单理解为 GPT-4o 或 GPT-5 这样的主力模型)在 2030 年之前,将继续在微软的 Azure 云上“独家”提供给大企业客户。但是,其他所有产品——包括 Sora、Agents(智能体)、开源模型、以及未来的可穿戴设备等——都不受此限制,可以在任何其他平台(比如亚马逊或谷歌的云)上分发。

- AI 的终极目标:Sam 的终极愿景是“AI 用于科学”(AI for Science),他认为 AI 做出“全新科学发现”的那刻,就是超级智能的某种体现。

- 交互的未来:纳德拉则定义了下一个人机交互范式——“宏观委托,微观调校”(Macro delegation and micro steering)。你只管下达大任务,AI 自己去办,只在关键节点找你确认。

这场对话清晰地表明:AI 的军备竞赛已经正式进入了拼数据中心、拼能源的“物理战”阶段。而微软和 OpenAI,已经通过一份精妙的(对微软而言血赚的)协议,把身家性命深度绑定,试图联手定义下一个计算时代。

接下来是访谈的一些具体内容和细节

一、那个“1.4 万亿”的算力承诺,到底什么来头?

这是全场最尖锐的问题。主持人 Brad Gerstner 直接抛出了那个吓人的数字:OpenAI 承诺在未来几年投入高达 1.4 万亿美金去购买算力,可你们公司(OpenAI)明年的营收“据报道”也就 130 亿美金。

这听起来像不像“蛇吞象”?这钱从哪来?这合理吗?

Sam Altman 的反应很直接,也很有意思:
1. “我们的收入比你报的多得多。”
2. “你要是担心,想卖你的 OpenAI 股票,我立马就能给你找到买家。” (潜台词:我们现在是市场上最烫手的资产,不愁钱,也不愁没人信。)

Sam 承认这是一场豪赌,他们赌的是,AI 的能力和带来的收入将继续“陡峭地增长”。这笔钱会投向 ChatGPT 的持续迭代、AI 云服务、全新的消费级 AI 设备,以及一个更宏大的目标——用 AI 来搞科学发现。

对他来说,真正的风险不是花钱太多,而是算力不够。

“如果我们没有足够的算力,我们就做不出更强的模型,也就产生不了那么多收入。”——这才是他们最大的恐惧。

纳德拉也表达了对 Sam 的支持:OpenAI 提交给微软的每一版商业计划,“每一次都超额完成了”。

二、真正的瓶颈:不是缺芯片,是缺“插座”

紧接着的问题是:既然这么缺算力,那未来几年会不会出现“算力过剩”?毕竟,科技史上这种“基础设施泡沫”太多了。

Sam:“过剩(Glut)是肯定会来的,我只是不知道是两三年后还是五六年后。”

为什么?因为技术突破是指数级的。万一哪天我们真的能在笔记本上本地运行 GPT-6 了(Sam 的原话),那今天这些昂贵的、中心化的数据中心可能就不值钱了。

但是,“现在”呢?

现在是极度、极度、极度的短缺。

而纳德拉提供了一个更关键的视角。他说,今天微软面临的真正瓶颈,甚至“不是芯片供应问题(GPU),而是我没有足够的‘暖房’(warm shells)把它们插进去。”

这话说得太实在了。

“暖房”指的是什么?是数据中心、是配套的电力、是土地。你拿到了几万张 H100,你得有地方放吧?你得有足够的电力供吧?这背后是庞大的土木工程和能源问题。数字世界的狂飙,终究还是被物理世界的规律和施工进度给限制住了。

三、拆解新协议:微软到底拿到了什么?

这场对谈的核心,是他们刚敲定的新合作协议。我们来看看重点:

1. 微软的“独占权”是什么?

- 独占的:OpenAI 的“无状态 API”(Stateless APIs),你基本可以理解为 GPT 系列大模型的核心 API 调用。在 2030 年之前,这部分在大型云厂商里,Azure 独占,AWS、Google 的 GCP 都拿不到。
- 不独占的:其他所有东西。比如开源模型、Sora(视频模型)、AI Agents(智能体)、各种硬件设备(比如传闻中的 AI 可穿戴设备)。这些 OpenAI 都可以在其他平台(比如 AWS 或 Google Cloud)上分发。

这是一个非常精妙的平衡。微软锁定了自己云服务(Azure)的核心竞争力(只有我这有最强的大模型 API),同时又给了 OpenAI 足够的自由度去探索其他商业模式。

2. 为什么 OpenAI 要分给别人(Oracle、AMD)订单?

纳德拉解释了他作为云服务商的“难处”。他的目标是建立一个“可替换的算力集群”(Fungible Compute Fleet)。

什么意思?他不能把所有鸡蛋都放在一个篮子里,只为 OpenAI 这一个客户服务。他还要顾及自己那些“高利润”的亲儿子(比如 M365 Copilot、GitHub Copilot)以及 Azure 上成千
上万的其他客户。

因此,微软让 OpenAI 也去外面采购一些算力(比如从 Oracle 那里买),这反而给了微软自己更大的灵活性,去平衡内部的算力分配。

3. 微软的真正“王牌”:免费的“最强引擎”

如果说微软在 OpenAI 那 27% 的股权(Sam 说希望这笔投资未来能值一万亿)是“面子”,那真正的“里子”是这个:

微软获得了 OpenAI 模型和 IP 的“免版税使用权”(Royalty-free access),期限长达七年多。

纳德拉自己都说,这相当于“免费获得了一个前沿模型”(a frontier model for free)。

想一想,这意味着微软可以把这个星球上最强的 AI 大脑,源源不断地、“免费”地塞进它所有的核心产品里——Office 全家桶、Windows 操作系统、GitHub、Bing 搜索……

这笔买卖,简直是科技史上最划算的投资之一。

四、聊天 vs. 搜索:一个尚未解决的经济难题

对话中提到了一个非常棘手,但又极其重要的问题:AI 聊天(Chat)和传统搜索(Search)的经济模型。

- 搜索:这是一个完美的“印钞机”。谷歌建一个“索引”(固定成本),然后每次搜索的边际成本“几乎为零”。用广告竞价排名,利润高到吓人。
- 聊天:这是完全相反的。每一次提问,都需要消耗大量的 GPU 算力,边际成本非常高。

纳德拉的回答:“经济模型完全不同。”

他说,这就是为什么 AI 聊天(消费端)现在都在搞“订阅制”(比如 ChatGPT Plus)。我们(行业)还没有找到 AI 时代的“广告单元”。

他用了一个词:“The cheese is being moved”(奶酪正在被移走)。谷歌和微软建立在“搜索”上的万亿帝国,其最底层的商业逻辑,正在被 AI 动摇。

纳德拉的结论是:企业(Enterprise)端的 AI 赚钱模式很清晰(“智能体就是新的工位”),但消费者(Consumer)端的赚钱模式,还“有点模糊” (a little more murky)。

五、AI 的未来:“科学发现”与“宏观委托”

那么,花这么多钱,到底是为了什么?

Sam Altman 的终极愿景:“AI 用于科学(AI for Science)”

Sam 说,他最兴奋的是,希望到 2026 年,AI 能做出哪怕“非常微小”的、但却是“全新的科学发现”。

他认为,如果 AI 能开始扩展人类知识的总和,那在某种意义上,“这就是超级智能”。

Satya Nadella 的愿景:“宏观委托,微观调校”

纳德拉则更关注人机交互的变革。他认为,ChatGPT 的魔力在于“UI(界面)遇上了智能”。

而下一个革命性的 UI 是什么?他称之为“宏观委托与微观调校”(Macro delegation and micro steering)。

什么意思?就是你不再是“搜索”或“聊天”,而是直接给 AI 一个大任务(比如“帮我策划并预订下周去日本的家庭旅行”),AI 会自己去执行,中间只在关键节点(比如“酒店 A 和 B,你选哪个?”)回来“微观调控”你一下。

而要实现这一点,Sam 补充说,就需要“新形态的计算设备”(比如 AI Pin 或可穿戴设备),它必须能“始终伴随你”,并对你的生活有“完整的上下文感知”。

“利润率扩张的黄金时代”

聊到最后,他们谈到了 AI 对就业和生产力的影响。科技公司最近都在裁员。这是因为 AI 吗?

纳德拉不这么认为。他称之为“利润率扩张的黄金时代”(golden age of margin expansion)。

他举了个例子:微软内部管网络运营的团队,要和全球 400 家光纤运营商打交道,工作极其繁琐。那个女主管说,你就算批准预算,我也招不到这么多人。于是,她自己动手,用 AI 做了 N 个智能体,把整个运维流程给自动化了。

这就是未来。纳德拉预测:公司营收翻倍,但员工数可能只增长一点点。因为每个员工的“杠杆率”(leverage)都通过 AI 被极大地放大了。

这不是说要大规模裁员,而是“AI 让你一个人干一个团队的活”。我们每个人,都必须重新学习“如何工作”(the how of work)。

一个团队在 AI 的帮助下,能完成过去十倍的工作量。因此,未来公司的“人头数”(Headcount)增长,将远远慢于“营收”(Top line)的增长。

这就是 AI 带来的生产力革命——用更少的人,撬动更大的价值。

今天 X 上《All things AI w @altcap @sama & @satyanadella》这个播客最火,各种切片。 因为播客中做客的可是 OpenAI 的 CEO 山姆·奥特曼(Sam Altman)和微软的 CEO 萨提亚·纳德拉(Satya Nadella)。 两位大佬聊了很多关于 AI 未来、算力投入、微软与 OpenAI 的合作等话题,加上前几天微软和 OpenAI 刚宣布了新的合作协议,并且他们在播客中也聊到了这个协议的细节,所以备受关注。 先总结一下这场对话的几个关键点: - 1.4 万亿的算力豪赌:面对“蛇吞象”的质疑(营收 130 亿却敢承诺 1.4 万亿算力投入),Sam 认为这 1.4 万亿不是“负债”,而是他们实现下一个目标的“弹药”。在他们看来,唯一的风险就是弹药不够。 - 真正的瓶颈不是芯片:纳德拉亲口承认,今天微软最大的瓶颈,甚至不是缺 GPU 芯片,而是缺能把芯片插进去的数据中心和配套的电力。物理世界的施工进度,成了数字世界狂飙的最大限制。 - 微软的“王牌”:在新敲定的协议里,微软的王牌不是那 27% 的股权,而是获得了 OpenAI 最强 AI 引擎长达七年的“免版税使用权”。用纳德拉的话说,这等于“免费拿到了一个前沿模型”。 OpenAI 的核心模型(即“无状态 API”,你可以简单理解为 GPT-4o 或 GPT-5 这样的主力模型)在 2030 年之前,将继续在微软的 Azure 云上“独家”提供给大企业客户。但是,其他所有产品——包括 Sora、Agents(智能体)、开源模型、以及未来的可穿戴设备等——都不受此限制,可以在任何其他平台(比如亚马逊或谷歌的云)上分发。 - AI 的终极目标:Sam 的终极愿景是“AI 用于科学”(AI for Science),他认为 AI 做出“全新科学发现”的那刻,就是超级智能的某种体现。 - 交互的未来:纳德拉则定义了下一个人机交互范式——“宏观委托,微观调校”(Macro delegation and micro steering)。你只管下达大任务,AI 自己去办,只在关键节点找你确认。 这场对话清晰地表明:AI 的军备竞赛已经正式进入了拼数据中心、拼能源的“物理战”阶段。而微软和 OpenAI,已经通过一份精妙的(对微软而言血赚的)协议,把身家性命深度绑定,试图联手定义下一个计算时代。 接下来是访谈的一些具体内容和细节 一、那个“1.4 万亿”的算力承诺,到底什么来头? 这是全场最尖锐的问题。主持人 Brad Gerstner 直接抛出了那个吓人的数字:OpenAI 承诺在未来几年投入高达 1.4 万亿美金去购买算力,可你们公司(OpenAI)明年的营收“据报道”也就 130 亿美金。 这听起来像不像“蛇吞象”?这钱从哪来?这合理吗? Sam Altman 的反应很直接,也很有意思: 1. “我们的收入比你报的多得多。” 2. “你要是担心,想卖你的 OpenAI 股票,我立马就能给你找到买家。” (潜台词:我们现在是市场上最烫手的资产,不愁钱,也不愁没人信。) Sam 承认这是一场豪赌,他们赌的是,AI 的能力和带来的收入将继续“陡峭地增长”。这笔钱会投向 ChatGPT 的持续迭代、AI 云服务、全新的消费级 AI 设备,以及一个更宏大的目标——用 AI 来搞科学发现。 对他来说,真正的风险不是花钱太多,而是算力不够。 “如果我们没有足够的算力,我们就做不出更强的模型,也就产生不了那么多收入。”——这才是他们最大的恐惧。 纳德拉也表达了对 Sam 的支持:OpenAI 提交给微软的每一版商业计划,“每一次都超额完成了”。 二、真正的瓶颈:不是缺芯片,是缺“插座” 紧接着的问题是:既然这么缺算力,那未来几年会不会出现“算力过剩”?毕竟,科技史上这种“基础设施泡沫”太多了。 Sam:“过剩(Glut)是肯定会来的,我只是不知道是两三年后还是五六年后。” 为什么?因为技术突破是指数级的。万一哪天我们真的能在笔记本上本地运行 GPT-6 了(Sam 的原话),那今天这些昂贵的、中心化的数据中心可能就不值钱了。 但是,“现在”呢? 现在是极度、极度、极度的短缺。 而纳德拉提供了一个更关键的视角。他说,今天微软面临的真正瓶颈,甚至“不是芯片供应问题(GPU),而是我没有足够的‘暖房’(warm shells)把它们插进去。” 这话说得太实在了。 “暖房”指的是什么?是数据中心、是配套的电力、是土地。你拿到了几万张 H100,你得有地方放吧?你得有足够的电力供吧?这背后是庞大的土木工程和能源问题。数字世界的狂飙,终究还是被物理世界的规律和施工进度给限制住了。 三、拆解新协议:微软到底拿到了什么? 这场对谈的核心,是他们刚敲定的新合作协议。我们来看看重点: 1. 微软的“独占权”是什么? - 独占的:OpenAI 的“无状态 API”(Stateless APIs),你基本可以理解为 GPT 系列大模型的核心 API 调用。在 2030 年之前,这部分在大型云厂商里,Azure 独占,AWS、Google 的 GCP 都拿不到。 - 不独占的:其他所有东西。比如开源模型、Sora(视频模型)、AI Agents(智能体)、各种硬件设备(比如传闻中的 AI 可穿戴设备)。这些 OpenAI 都可以在其他平台(比如 AWS 或 Google Cloud)上分发。 这是一个非常精妙的平衡。微软锁定了自己云服务(Azure)的核心竞争力(只有我这有最强的大模型 API),同时又给了 OpenAI 足够的自由度去探索其他商业模式。 2. 为什么 OpenAI 要分给别人(Oracle、AMD)订单? 纳德拉解释了他作为云服务商的“难处”。他的目标是建立一个“可替换的算力集群”(Fungible Compute Fleet)。 什么意思?他不能把所有鸡蛋都放在一个篮子里,只为 OpenAI 这一个客户服务。他还要顾及自己那些“高利润”的亲儿子(比如 M365 Copilot、GitHub Copilot)以及 Azure 上成千 上万的其他客户。 因此,微软让 OpenAI 也去外面采购一些算力(比如从 Oracle 那里买),这反而给了微软自己更大的灵活性,去平衡内部的算力分配。 3. 微软的真正“王牌”:免费的“最强引擎” 如果说微软在 OpenAI 那 27% 的股权(Sam 说希望这笔投资未来能值一万亿)是“面子”,那真正的“里子”是这个: 微软获得了 OpenAI 模型和 IP 的“免版税使用权”(Royalty-free access),期限长达七年多。 纳德拉自己都说,这相当于“免费获得了一个前沿模型”(a frontier model for free)。 想一想,这意味着微软可以把这个星球上最强的 AI 大脑,源源不断地、“免费”地塞进它所有的核心产品里——Office 全家桶、Windows 操作系统、GitHub、Bing 搜索…… 这笔买卖,简直是科技史上最划算的投资之一。 四、聊天 vs. 搜索:一个尚未解决的经济难题 对话中提到了一个非常棘手,但又极其重要的问题:AI 聊天(Chat)和传统搜索(Search)的经济模型。 - 搜索:这是一个完美的“印钞机”。谷歌建一个“索引”(固定成本),然后每次搜索的边际成本“几乎为零”。用广告竞价排名,利润高到吓人。 - 聊天:这是完全相反的。每一次提问,都需要消耗大量的 GPU 算力,边际成本非常高。 纳德拉的回答:“经济模型完全不同。” 他说,这就是为什么 AI 聊天(消费端)现在都在搞“订阅制”(比如 ChatGPT Plus)。我们(行业)还没有找到 AI 时代的“广告单元”。 他用了一个词:“The cheese is being moved”(奶酪正在被移走)。谷歌和微软建立在“搜索”上的万亿帝国,其最底层的商业逻辑,正在被 AI 动摇。 纳德拉的结论是:企业(Enterprise)端的 AI 赚钱模式很清晰(“智能体就是新的工位”),但消费者(Consumer)端的赚钱模式,还“有点模糊” (a little more murky)。 五、AI 的未来:“科学发现”与“宏观委托” 那么,花这么多钱,到底是为了什么? Sam Altman 的终极愿景:“AI 用于科学(AI for Science)” Sam 说,他最兴奋的是,希望到 2026 年,AI 能做出哪怕“非常微小”的、但却是“全新的科学发现”。 他认为,如果 AI 能开始扩展人类知识的总和,那在某种意义上,“这就是超级智能”。 Satya Nadella 的愿景:“宏观委托,微观调校” 纳德拉则更关注人机交互的变革。他认为,ChatGPT 的魔力在于“UI(界面)遇上了智能”。 而下一个革命性的 UI 是什么?他称之为“宏观委托与微观调校”(Macro delegation and micro steering)。 什么意思?就是你不再是“搜索”或“聊天”,而是直接给 AI 一个大任务(比如“帮我策划并预订下周去日本的家庭旅行”),AI 会自己去执行,中间只在关键节点(比如“酒店 A 和 B,你选哪个?”)回来“微观调控”你一下。 而要实现这一点,Sam 补充说,就需要“新形态的计算设备”(比如 AI Pin 或可穿戴设备),它必须能“始终伴随你”,并对你的生活有“完整的上下文感知”。 “利润率扩张的黄金时代” 聊到最后,他们谈到了 AI 对就业和生产力的影响。科技公司最近都在裁员。这是因为 AI 吗? 纳德拉不这么认为。他称之为“利润率扩张的黄金时代”(golden age of margin expansion)。 他举了个例子:微软内部管网络运营的团队,要和全球 400 家光纤运营商打交道,工作极其繁琐。那个女主管说,你就算批准预算,我也招不到这么多人。于是,她自己动手,用 AI 做了 N 个智能体,把整个运维流程给自动化了。 这就是未来。纳德拉预测:公司营收翻倍,但员工数可能只增长一点点。因为每个员工的“杠杆率”(leverage)都通过 AI 被极大地放大了。 这不是说要大规模裁员,而是“AI 让你一个人干一个团队的活”。我们每个人,都必须重新学习“如何工作”(the how of work)。 一个团队在 AI 的帮助下,能完成过去十倍的工作量。因此,未来公司的“人头数”(Headcount)增长,将远远慢于“营收”(Top line)的增长。 这就是 AI 带来的生产力革命——用更少的人,撬动更大的价值。

Prompt Engineer, dedicated to learning and disseminating knowledge about AI, software engineering, and engineering management.

avatar for 宝玉
宝玉
Sat Nov 01 19:56:28
  • Previous
  • 1
  • More pages
  • 3497
  • 3498
  • 3499
  • More pages
  • 4210
  • Next