Google TPUv7 爆炸:硬指標追平NVIDIA,AI 算力要變天? 來自@SemiAnalysis_ 的文章深入剖析了谷歌最新一代AI 晶片TPUv7(代號Ironwood)的技術細節、戰略意義及其對NVIDIA 市場統治地位的潛在衝擊。 核心論點:Google不再“偏科”,正面硬剛NVIDIA 過去,Google的TPU 雖然在內部廣泛使用,但在單晶片性能指標上往往不如NVIDIA 的旗艦GPU,更多是靠數量取勝。 TPUv7 是一個轉捩點,Google在這一代產品上幾乎完全填補了與NVIDIA 最新旗艦Blackwell 系列在算力、顯存和頻寬上的差距。谷歌已具備在硬指標上與業界霸主正面對抗的實力。 硬體規格:追平“地表最強” 詳細比較了TPUv7 與NVIDIA Blackwell(B200)的關鍵參數,發現兩者已處於相同量級: · 算力表現:TPUv7 的單晶片FP8 算力約4.6 PetaFLOPS,略高於NVIDIA B200 的4.5 PetaFLOPS。這意味著在處理AI 模型訓練和推理中最常用的計算任務時,TPUv7 甚至稍佔上風。 · 記憶體配置:TPUv7 配備了192GB 的HBM3e 高頻寬內存,這與NVIDIA B200 的配置完全一致。記憶體頻寬也達到了7.4 TB/s 的驚人水平,緊追在NVIDIA。 真正的殺手鐧:恐怖的擴展能力(Scale-Up) TPUv7 最大的優勢不在於單顆晶片,而是將它們連在一起的能力。 · 超級叢集:Google利用其獨特的光路交換技術和3D Torus 互連架構,可以將9,216 顆TPUv7 晶片連接成一個巨大的、統一的「超級運算倉」。 · 對比NVIDIA:相較之下,NVIDIA 的GB200 NVL72 系統通常在一個機櫃內連接72 顆GPU。雖然NVIDIA 也可以透過乙太網路或InfiniBand 連接更多機櫃,但Google在單一大規模集群的建構上展現出了極其激進的工程能力。 這意味著什麼? 對於訓練萬億參數等級的超大AI 模型,這種大規模、低延遲的互連能顯著減少通訊瓶頸,讓成千上萬顆晶片像一顆「巨型大腦」一樣協同工作。 經濟帳:極具競爭力的擁有成本 SemiAnalysis 在文章中算了一筆帳:雖然TPUv7 的效能追平了NVIDIA,但在成本上卻有巨大優勢。 由於Google擁有從晶片設計、資料中心、散熱到網路設備的完整垂直整合能力,文章估算TPUv7 系統的總擁有成本比購買NVIDIA GB200 伺服器方案低約44%。 這對於需要耗資數十億美元購買算力的科技巨頭來說,是個無法忽視的誘惑。 戰略轉變:從“自用”到“軍火商” 文章也捕捉了谷歌商業模式的一個重大變化。過去TPU 主要供Google內部(如搜尋、YouTube、Gemini 模型)使用,外部客戶只能透過Google雲端租用。 但現在,Google開始透過更靈活的方式向外部提供算力,甚至吸引了像Anthropic 這樣的大客戶。 Anthropic 承諾購買並使用大規模的TPU 集群,這標誌著谷歌正式作為“AI 算力軍火商”,開始在市場上搶奪本屬於NVIDIA 的份額。 文章的結論:TPUv7 是Google迄今為止最強大的反擊武器。 它不僅在硬體參數上抹平了與NVIDIA 的代差,更利用其在大規模集群建造和成本控制上的傳統優勢,構建了一道獨特的護城河。雖然NVIDIA 的CUDA 生態仍然強大,但對於那些最頂尖、最燒錢的AI 模型訓練者來說,Google提供了一個在性能和成本上都極具競爭力的替代方案。這可能預示著AI 晶片市場正從NVIDIA 的「一家獨大」走向更激烈的「雙雄爭霸」。 文章地址:
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
