今天 X 上《All things AI w @altcap @sama & @satyanadella》这个播客最火,各种切片。
因为播客中做客的可是 OpenAI 的 CEO 山姆·奥特曼(Sam Altman)和微软的 CEO 萨提亚·纳德拉(Satya Nadella)。
两位大佬聊了很多关于 AI 未来、算力投入、微软与 OpenAI 的合作等话题,加上前几天微软和 OpenAI 刚宣布了新的合作协议,并且他们在播客中也聊到了这个协议的细节,所以备受关注。
先总结一下这场对话的几个关键点:
- 1.4 万亿的算力豪赌:面对“蛇吞象”的质疑(营收 130 亿却敢承诺 1.4 万亿算力投入),Sam 认为这 1.4 万亿不是“负债”,而是他们实现下一个目标的“弹药”。在他们看来,唯一的风险就是弹药不够。
- 真正的瓶颈不是芯片:纳德拉亲口承认,今天微软最大的瓶颈,甚至不是缺 GPU 芯片,而是缺能把芯片插进去的数据中心和配套的电力。物理世界的施工进度,成了数字世界狂飙的最大限制。
- 微软的“王牌”:在新敲定的协议里,微软的王牌不是那 27% 的股权,而是获得了 OpenAI 最强 AI 引擎长达七年的“免版税使用权”。用纳德拉的话说,这等于“免费拿到了一个前沿模型”。
OpenAI 的核心模型(即“无状态 API”,你可以简单理解为 GPT-4o 或 GPT-5 这样的主力模型)在 2030 年之前,将继续在微软的 Azure 云上“独家”提供给大企业客户。但是,其他所有产品——包括 Sora、Agents(智能体)、开源模型、以及未来的可穿戴设备等——都不受此限制,可以在任何其他平台(比如亚马逊或谷歌的云)上分发。
- AI 的终极目标:Sam 的终极愿景是“AI 用于科学”(AI for Science),他认为 AI 做出“全新科学发现”的那刻,就是超级智能的某种体现。
- 交互的未来:纳德拉则定义了下一个人机交互范式——“宏观委托,微观调校”(Macro delegation and micro steering)。你只管下达大任务,AI 自己去办,只在关键节点找你确认。
这场对话清晰地表明:AI 的军备竞赛已经正式进入了拼数据中心、拼能源的“物理战”阶段。而微软和 OpenAI,已经通过一份精妙的(对微软而言血赚的)协议,把身家性命深度绑定,试图联手定义下一个计算时代。
接下来是访谈的一些具体内容和细节
一、那个“1.4 万亿”的算力承诺,到底什么来头?
这是全场最尖锐的问题。主持人 Brad Gerstner 直接抛出了那个吓人的数字:OpenAI 承诺在未来几年投入高达 1.4 万亿美金去购买算力,可你们公司(OpenAI)明年的营收“据报道”也就 130 亿美金。
这听起来像不像“蛇吞象”?这钱从哪来?这合理吗?
Sam Altman 的反应很直接,也很有意思:
1. “我们的收入比你报的多得多。”
2. “你要是担心,想卖你的 OpenAI 股票,我立马就能给你找到买家。” (潜台词:我们现在是市场上最烫手的资产,不愁钱,也不愁没人信。)
Sam 承认这是一场豪赌,他们赌的是,AI 的能力和带来的收入将继续“陡峭地增长”。这笔钱会投向 ChatGPT 的持续迭代、AI 云服务、全新的消费级 AI 设备,以及一个更宏大的目标——用 AI 来搞科学发现。
对他来说,真正的风险不是花钱太多,而是算力不够。
“如果我们没有足够的算力,我们就做不出更强的模型,也就产生不了那么多收入。”——这才是他们最大的恐惧。
纳德拉也表达了对 Sam 的支持:OpenAI 提交给微软的每一版商业计划,“每一次都超额完成了”。
二、真正的瓶颈:不是缺芯片,是缺“插座”
紧接着的问题是:既然这么缺算力,那未来几年会不会出现“算力过剩”?毕竟,科技史上这种“基础设施泡沫”太多了。
Sam:“过剩(Glut)是肯定会来的,我只是不知道是两三年后还是五六年后。”
为什么?因为技术突破是指数级的。万一哪天我们真的能在笔记本上本地运行 GPT-6 了(Sam 的原话),那今天这些昂贵的、中心化的数据中心可能就不值钱了。
但是,“现在”呢?
现在是极度、极度、极度的短缺。
而纳德拉提供了一个更关键的视角。他说,今天微软面临的真正瓶颈,甚至“不是芯片供应问题(GPU),而是我没有足够的‘暖房’(warm shells)把它们插进去。”
这话说得太实在了。
“暖房”指的是什么?是数据中心、是配套的电力、是土地。你拿到了几万张 H100,你得有地方放吧?你得有足够的电力供吧?这背后是庞大的土木工程和能源问题。数字世界的狂飙,终究还是被物理世界的规律和施工进度给限制住了。
三、拆解新协议:微软到底拿到了什么?
这场对谈的核心,是他们刚敲定的新合作协议。我们来看看重点:
1. 微软的“独占权”是什么?
- 独占的:OpenAI 的“无状态 API”(Stateless APIs),你基本可以理解为 GPT 系列大模型的核心 API 调用。在 2030 年之前,这部分在大型云厂商里,Azure 独占,AWS、Google 的 GCP 都拿不到。
- 不独占的:其他所有东西。比如开源模型、Sora(视频模型)、AI Agents(智能体)、各种硬件设备(比如传闻中的 AI 可穿戴设备)。这些 OpenAI 都可以在其他平台(比如 AWS 或 Google Cloud)上分发。
这是一个非常精妙的平衡。微软锁定了自己云服务(Azure)的核心竞争力(只有我这有最强的大模型 API),同时又给了 OpenAI 足够的自由度去探索其他商业模式。
2. 为什么 OpenAI 要分给别人(Oracle、AMD)订单?
纳德拉解释了他作为云服务商的“难处”。他的目标是建立一个“可替换的算力集群”(Fungible Compute Fleet)。
什么意思?他不能把所有鸡蛋都放在一个篮子里,只为 OpenAI 这一个客户服务。他还要顾及自己那些“高利润”的亲儿子(比如 M365 Copilot、GitHub Copilot)以及 Azure 上成千
上万的其他客户。
因此,微软让 OpenAI 也去外面采购一些算力(比如从 Oracle 那里买),这反而给了微软自己更大的灵活性,去平衡内部的算力分配。
3. 微软的真正“王牌”:免费的“最强引擎”
如果说微软在 OpenAI 那 27% 的股权(Sam 说希望这笔投资未来能值一万亿)是“面子”,那真正的“里子”是这个:
微软获得了 OpenAI 模型和 IP 的“免版税使用权”(Royalty-free access),期限长达七年多。
纳德拉自己都说,这相当于“免费获得了一个前沿模型”(a frontier model for free)。
想一想,这意味着微软可以把这个星球上最强的 AI 大脑,源源不断地、“免费”地塞进它所有的核心产品里——Office 全家桶、Windows 操作系统、GitHub、Bing 搜索……
这笔买卖,简直是科技史上最划算的投资之一。
四、聊天 vs. 搜索:一个尚未解决的经济难题
对话中提到了一个非常棘手,但又极其重要的问题:AI 聊天(Chat)和传统搜索(Search)的经济模型。
- 搜索:这是一个完美的“印钞机”。谷歌建一个“索引”(固定成本),然后每次搜索的边际成本“几乎为零”。用广告竞价排名,利润高到吓人。
- 聊天:这是完全相反的。每一次提问,都需要消耗大量的 GPU 算力,边际成本非常高。
纳德拉的回答:“经济模型完全不同。”
他说,这就是为什么 AI 聊天(消费端)现在都在搞“订阅制”(比如 ChatGPT Plus)。我们(行业)还没有找到 AI 时代的“广告单元”。
他用了一个词:“The cheese is being moved”(奶酪正在被移走)。谷歌和微软建立在“搜索”上的万亿帝国,其最底层的商业逻辑,正在被 AI 动摇。
纳德拉的结论是:企业(Enterprise)端的 AI 赚钱模式很清晰(“智能体就是新的工位”),但消费者(Consumer)端的赚钱模式,还“有点模糊” (a little more murky)。
五、AI 的未来:“科学发现”与“宏观委托”
那么,花这么多钱,到底是为了什么?
Sam Altman 的终极愿景:“AI 用于科学(AI for Science)”
Sam 说,他最兴奋的是,希望到 2026 年,AI 能做出哪怕“非常微小”的、但却是“全新的科学发现”。
他认为,如果 AI 能开始扩展人类知识的总和,那在某种意义上,“这就是超级智能”。
Satya Nadella 的愿景:“宏观委托,微观调校”
纳德拉则更关注人机交互的变革。他认为,ChatGPT 的魔力在于“UI(界面)遇上了智能”。
而下一个革命性的 UI 是什么?他称之为“宏观委托与微观调校”(Macro delegation and micro steering)。
什么意思?就是你不再是“搜索”或“聊天”,而是直接给 AI 一个大任务(比如“帮我策划并预订下周去日本的家庭旅行”),AI 会自己去执行,中间只在关键节点(比如“酒店 A 和 B,你选哪个?”)回来“微观调控”你一下。
而要实现这一点,Sam 补充说,就需要“新形态的计算设备”(比如 AI Pin 或可穿戴设备),它必须能“始终伴随你”,并对你的生活有“完整的上下文感知”。
“利润率扩张的黄金时代”
聊到最后,他们谈到了 AI 对就业和生产力的影响。科技公司最近都在裁员。这是因为 AI 吗?
纳德拉不这么认为。他称之为“利润率扩张的黄金时代”(golden age of margin expansion)。
他举了个例子:微软内部管网络运营的团队,要和全球 400 家光纤运营商打交道,工作极其繁琐。那个女主管说,你就算批准预算,我也招不到这么多人。于是,她自己动手,用 AI 做了 N 个智能体,把整个运维流程给自动化了。
这就是未来。纳德拉预测:公司营收翻倍,但员工数可能只增长一点点。因为每个员工的“杠杆率”(leverage)都通过 AI 被极大地放大了。
这不是说要大规模裁员,而是“AI 让你一个人干一个团队的活”。我们每个人,都必须重新学习“如何工作”(the how of work)。
一个团队在 AI 的帮助下,能完成过去十倍的工作量。因此,未来公司的“人头数”(Headcount)增长,将远远慢于“营收”(Top line)的增长。
这就是 AI 带来的生产力革命——用更少的人,撬动更大的价值。
Prompt Engineer, dedicated to learning and disseminating knowledge about AI, software engineering, and engineering management.