观点:Nvidia/Coreweave/OpenAI关系图中的很多循环论证都可以用人工智能数据中心缺乏经济可行性来解释。 为了理解个中缘由,我们可以看看加密货币挖矿的商业模式:随着挖矿难度的增加,许多加密货币挖矿公司最终都因为巨额的折旧成本而亏损,这些成本几乎每隔几年就需要更换设备,从而抵消了大部分利润。从数据中心提供商的角度来看,人工智能数据中心的情况也大同小异,因为他们只从GPU使用时间中获利,而不是从实际的人工智能输出中获利,所以计算的实际内容与他们的盈利模式无关。 英伟达、谷歌和OpenAI正在全部或部分地将数据中心管理外包,因为这些折旧成本在任何资产负债表上都显得非常糟糕。让新型云平台承担这些成本更容易,这样既能享受硬件生命周期两端的收益,又无需承担实际的折旧费用。 当英伟达向CW出售GPU,并将GPU使用时间租回给DGX Cloud时,他们实际上是在通过GPU销售和租赁加价来赚钱,而让CW承担折旧费用。 这些新兴科技巨头的目标是推高股价,一夜暴富。这种策略在一段时间内会奏效,直到它们无法继续筹集债务融资为止。届时,如果大型企业需要承担全部损失,许多财务数据就需要重新调整。 出于供应链和资源方面的考虑,GPU芯片的成本不会随着时间推移而下降。我们预计,性能更强的新一代GPU将以相同甚至更高的价格持续取代旧硬件,而LLM计算负载也将不断增大和复杂化。因此,这种模式根本无法扭转颓势,实现盈利,它就像一颗定时炸弹,随时可能因利率变化或流动性挑战(或两者兼有)而引爆。 要想让一切顺利进行,唯一的办法就是提高人工智能范式的效率,从而获得与传统云计算相同的数据中心经济效益:通过更经济的硬件来驱动计算,避免折旧过于严重。 在不久的将来,这可能意味着一种更具成本效益的硬件,其供应链集中度更低,并且人工智能架构从根本上来说是不同的,我们可以在更容易制造和广泛生产的硬件上获得相同或更好的推理性能。 如果/当泡沫破裂时,从长远来看,这可能是对人工智能行业最好的事情,因为它将开始把资金重新分配到比“只是扩大规模、投入更多资金,然后看看会发生什么”更好的方法上。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。