Avis : une grande partie de la circularité du schéma Nvidia/Coreweave/OpenAI s’explique par le manque de viabilité financière des centres de données d’IA. Pour comprendre ce phénomène, prenons l'exemple du minage de cryptomonnaies : à mesure que la difficulté augmentait, de nombreuses entreprises de minage sont devenues non rentables en raison des coûts d'amortissement considérables qui, lors du remplacement du matériel, anéantissent leurs bénéfices tous les deux ou trois ans. Les centres de données dédiés à l'IA présentent un constat similaire du point de vue des fournisseurs, puisqu'ils ne tirent profit que du temps de calcul des GPU et non des résultats de l'IA elle-même. Le contenu même du calcul est donc sans importance pour leur modèle économique. Nvidia, Google et OpenAI externalisent totalement ou partiellement la gestion de leurs centres de données, car les coûts d'amortissement pèsent lourd sur leurs bilans. Il est plus simple pour les plateformes de cloud (neoclouds) d'absorber ces coûts et de tirer profit des différentes phases du cycle de vie du matériel sans avoir à supporter l'amortissement lui-même. Lorsque Nvidia vend des GPU à CW et loue des heures de GPU pour DGX Cloud, elle réalise en réalité un bénéfice sur la vente des GPU et la marge sur la location, tout en laissant à CW le soin de supporter l'amortissement. Les néo-clouds ne misent que sur la hausse artificielle du cours de leurs actions et la perspective d'une croissance fulgurante. Cette stratégie fonctionnera un temps, jusqu'à ce que ces néo-clouds ne puissent plus se financer par l'emprunt. À ce moment-là, de nombreux indicateurs financiers devront être revus si les acteurs majeurs veulent assumer pleinement l'amortissement. Pour des raisons d'approvisionnement et de ressources, le coût unitaire des puces GPU ne devrait pas diminuer avec le temps. En effet, nous prévoyons que les nouvelles générations de GPU, plus performantes, continueront de remplacer le matériel ancien à des prix égaux, voire supérieurs, et que les charges utiles de calcul LLM deviendront toujours plus volumineuses et complexes. Par conséquent, il est impossible de rendre ce modèle rentable ; c'est une bombe à retardement qui explosera en cas de fluctuations des taux d'intérêt ou de problèmes de liquidités (ou les deux). La seule façon d'y parvenir est d'améliorer l'efficacité du paradigme de l'IA, ce qui nous permettra d'obtenir les mêmes avantages économiques pour les centres de données que pour le cloud conventionnel : pouvoir exploiter la puissance de calcul grâce à un matériel plus économique où la dépréciation n'est pas aussi extrême. Dans un avenir proche, cela pourrait se traduire par un matériel plus rentable, avec une chaîne d'approvisionnement moins concentrée, pour une architecture d'IA fondamentalement différente, permettant d'obtenir des performances d'inférence identiques ou meilleures sur un matériel plus facile et plus largement fabriqué. Si/quand la bulle éclatera, ce sera probablement la meilleure chose pour l'industrie de l'IA à long terme, car cela commencera à redistribuer les fonds vers de meilleures approches que « simplement agrandir et dépenser plus d'argent et voir ce qui se passe ».
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.