Existe-t-il réellement une bulle de l'IA ? Si oui, comment devons-nous la comprendre ? — Extrait des lettres d'Andrew Ng Avec OpenAI proposant un plan d'infrastructure astronomique de 1 400 milliards de dollars et la capitalisation boursière de Nvidia ayant atteint le plafond de 5 000 milliards de dollars, les inquiétudes du marché concernant une « bulle d'IA » n'ont jamais été aussi vives. Dans son article, Andrew Ng ne se range pas simplement du côté des optimistes ou des pessimistes. Il présente plutôt une perspective essentielle : l’IA n’est pas un marché unique et homogène. Pour déjouer la prétendue « bulle », il est nécessaire de décomposer l’IA en trois composantes distinctes : la couche applicative, l’infrastructure d’inférence et l’infrastructure d’entraînement. C’est la seule façon de voir la vérité. I. Un potentiel sous-estimé : Contrairement à la perception populaire des startups d'IA, Andrew Ng estime que la couche application de l'IA est en réalité sous-investie. La logique est ici implacable et intuitive : d’un point de vue économique, dans un écosystème technologique, la valeur totale créée par les applications doit excéder le coût de l’infrastructure qui les supporte ; sinon, le modèle économique tout entier est voué à l’échec. Or, actuellement, d’importants capitaux sont investis dans les puces et les modèles sous-jacents, tandis que les applications de haut niveau capables de générer une réelle valeur ajoutée sont rares. De nombreux investisseurs en capital-risque restent actuellement en retrait, craignant que les grands fournisseurs de modèles ne monopolisent le marché, évincant ainsi les développeurs d'applications. Andrew Ng, quant à lui, défend une vision différente. Il souligne qu'à mesure que l'IA évoluera progressivement vers le stade des « agents intelligents », capables de planifier et d'exécuter des tâches de manière autonome, le potentiel de la couche applicative se déploiera de façon exponentielle. Il s'agit non seulement du principal moteur de croissance de la prochaine décennie, mais aussi d'un secteur actuellement largement sous-évalué. II. Le moteur de la pénurie d'approvisionnement : l'infrastructure d'inférence. Lorsque l'on passe des « applications » à la « puissance de calcul », la situation change. Andrew Ng divise la puissance de calcul en deux parties : « l'inférence » et « l'entraînement ». La situation actuelle concernant l'infrastructure d'inférence est caractérisée par des contraintes d'offre. Bien que l'adoption mondiale de l'IA soit encore à ses débuts, la demande en puissance de calcul est déjà très forte. À l'avenir, avec la sortie de modèles plus puissants tels que GPT-5 et Gemini 3, et à mesure que les agents d'IA commenceront à écrire du code et à gérer des tâches complexes, notre consommation de jetons connaîtra une croissance exponentielle. Même si le marché développe une puissance de calcul d'inférence excessive par excès d'optimisme, Andrew Ng estime que ce n'est pas forcément un mal. Pour les développeurs et les utilisateurs, cela se traduit en réalité par des coûts de calcul réduits, ce qui stimulera le développement d'applications plus innovantes. Par conséquent, les fondamentaux de ce secteur restent solides. III. Le véritable centre de risque : l’infrastructure de formation S’il existe effectivement une bulle dans le domaine de l’IA, alors le danger caché qui inquiète le plus le professeur Andrew Ng réside dans l’infrastructure de formation. Il s'agit d'un secteur extrêmement gourmand en capitaux. De nombreuses entreprises investissent massivement dans l'entraînement de modèles de base propriétaires, espérant ainsi se forger un avantage concurrentiel. Cependant, l'essor des grands modèles open source fait voler en éclats cette illusion. À mesure que les performances de ces modèles s'améliorent rapidement, il devient de plus en plus difficile de se constituer un avantage concurrentiel simplement en « possédant un grand modèle ». Grâce à l'optimisation des algorithmes et aux progrès matériels, le coût de formation des modèles aux capacités équivalentes diminue d'année en année. Par conséquent, l'avantage acquis grâce à d'importants investissements aujourd'hui pourrait être anéanti dès l'année prochaine par des solutions technologiques moins coûteuses. Ce secteur est donc soumis à une forte pression en matière de rentabilité et représente actuellement le domaine le plus risqué. En conclusion, Andrew Ng, économiste de renom, a exprimé une préoccupation légitime à la fin de son article : le marché est souvent irrationnel. Si le secteur de la formation s’effondre en raison d’une surchauffe des investissements, cette panique peut facilement déclencher une réaction en chaîne, entraînant des retraits de fonds intempestifs du secteur des applications, qui repose pourtant sur des fondamentaux solides et devrait même bénéficier d’investissements accrus. Pour reprendre les mots de Warren Buffett : « À court terme, le marché est une machine à voter ; à long terme, c’est une machine à peser. » Les fluctuations de prix à court terme reflètent le sentiment du marché, tandis que la valeur à long terme repose sur les fondamentaux. Pour tous les praticiens, développeurs et décideurs politiques, le conseil d'Andrew Ng est clair et pertinent : ignorez les perturbations à court terme et concentrez-vous sur la création de valeur à long terme. Tant que nous serons convaincus que l'IA peut apporter une immense valeur pratique à l'humanité, il n'y aura qu'une seule stratégie efficace pour gérer les bulles spéculatives : continuer à innover ! Comprendre la bulle de l'IA — si elle existe
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
