La TPUv7 de Google pulvérise le marché : ses principaux indicateurs de performance égalent ceux de NVIDIA, le paysage de la puissance de calcul IA est-il sur le point de changer ? Un article de @SemiAnalysis_ fournit une analyse approfondie des détails techniques, de l'importance stratégique et de l'impact potentiel sur la domination du marché par NVIDIA de la dernière puce d'IA de Google, TPUv7 (nom de code Ironwood). Argument clé : Google ne se « spécialise partiellement » plus dans un domaine ; il s’attaque directement à NVIDIA. Auparavant, bien que les TPU de Google aient été largement utilisés en interne, leurs performances sur une seule puce étaient souvent inférieures à celles des GPU phares de NVIDIA, et leur succès reposait davantage sur la quantité. La TPUv7 a marqué un tournant, Google comblant quasiment tout l'écart avec la dernière gamme phare de NVIDIA, la Blackwell, en termes de puissance de calcul, de mémoire et de bande passante. Google disposait désormais des atouts nécessaires pour rivaliser directement avec le leader du secteur sur le plan des spécifications techniques. Spécifications matérielles : Équivalentes aux « plus puissantes au monde » Une comparaison détaillée des paramètres clés du TPUv7 et du NVIDIA Blackwell (B200) a révélé qu'ils appartiennent désormais à la même catégorie : • Performances de calcul : La puissance de calcul FP8 monopuce du TPUv7 atteint environ 4,6 pétaFLOPS, légèrement supérieure aux 4,5 pétaFLOPS du NVIDIA B200. Le TPUv7 présente ainsi un léger avantage pour les tâches de calcul les plus courantes dans l’entraînement et l’inférence des modèles d’IA. • Configuration mémoire : La TPUv7 est équipée de 192 Go de mémoire HBM3e à large bande passante, soit exactement la même capacité que la NVIDIA B200. La bande passante mémoire atteint également un niveau impressionnant de 7,4 To/s, se rapprochant ainsi des performances de NVIDIA. Le véritable atout majeur : des capacités d’extension terrifiantes. Le principal avantage du TPUv7 ne réside pas dans les puces individuelles, mais dans sa capacité à les connecter entre elles. • Supercluster : Google utilise sa technologie propriétaire de commutation de chemin optique et son architecture d'interconnexion 3D Torus pour connecter 9 216 puces TPUv7 dans un immense « silo de supercalcul » unifié. • Comparaison avec NVIDIA : le système GB200 NVL72 de NVIDIA connecte généralement 72 GPU dans un seul rack. Bien que NVIDIA puisse également connecter davantage de racks via Ethernet ou InfiniBand, Google a démontré des capacités d'ingénierie extrêmement performantes en construisant un cluster unique à grande échelle. Qu’est-ce que cela signifie ? Pour l’entraînement de modèles d’IA massifs comportant des milliards de paramètres, cette interconnexion à grande échelle et à faible latence peut réduire considérablement les goulots d’étranglement de la communication, permettant à des milliers de puces de fonctionner ensemble comme un « cerveau géant ». Considérations économiques : Coûts de possession très compétitifs SemiAnalysis a effectué les calculs présentés dans l'article : bien que les performances de TPUv7 soient équivalentes à celles de NVIDIA, il bénéficie d'un avantage considérable en termes de coût. Étant donné que Google possède des capacités d'intégration verticale complètes, de la conception de puces aux centres de données, en passant par la dissipation de chaleur et les équipements réseau, l'article estime que le coût total de possession du système TPUv7 est environ 44 % inférieur à celui de l'achat d'une solution serveur NVIDIA GB200. C’est une tentation irrésistible pour les géants de la technologie qui doivent dépenser des milliards de dollars pour acquérir de la puissance de calcul. Changement de stratégie : de « l'usage personnel » à « le commerce d'armes » L'article met également en lumière un changement important dans le modèle économique de Google. Auparavant, les TPU étaient principalement utilisées en interne par Google (notamment pour la recherche, YouTube et le modèle Gemini), et les clients externes ne pouvaient les louer que via Google Cloud. Mais aujourd'hui, Google propose sa puissance de calcul à des clients externes de manière plus flexible, attirant même de grands acteurs comme Anthropic. L'engagement d'Anthropic dans l'achat et l'utilisation de clusters TPU à grande échelle marque l'émergence officielle de Google comme « fournisseur d'armes en puissance de calcul pour l'IA », commençant à conquérir des parts de marché auparavant détenues par NVIDIA. L'article conclut que TPUv7 est à ce jour l'arme de contre-attaque la plus puissante de Google. Non seulement elle comble l'écart générationnel avec NVIDIA en matière de spécifications matérielles, mais elle tire également parti de ses atouts traditionnels dans la construction de clusters à grande échelle et la maîtrise des coûts pour se forger un avantage concurrentiel unique. Bien que l'écosystème CUDA de NVIDIA reste solide, Google propose une alternative très compétitive, tant en termes de performances que de coût, pour les entraîneurs de modèles d'IA les plus exigeants. Cela pourrait indiquer que le marché des puces d'IA évolue d'une domination de NVIDIA vers un duopole plus intense. Adresse de l'article :
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
