Hier, @RealJimChanos a avancé que les investissements relativement faibles de Tesla signifiaient qu'ils n'étaient pas un concurrent sérieux dans le domaine de l'IA et de la robotique concrètes. C'est *exactement* la mauvaise façon de voir les choses, et les implications de ce fait sont en réalité positives pour Tesla, à mon avis. Par définition, l'inférence chez Tesla se déroule dans la voiture, donc leurs clients paient en réalité pour les dépenses d'investissement liées au calcul de l'inférence, qui représentent désormais probablement la majorité des dépenses d'investissement des hyperscalers. Les dépenses d'investissement de Tesla seraient probablement dix fois supérieures si l'entreprise devait générer synthétiquement des données de conduite pertinentes dans un centre de données. L'intégration verticale subventionnée par le client est une solution idéale. C’est aussi pourquoi, à un moment donné, les clients de Tesla pourront intégrer leurs voitures à un pool de calcul distribué en périphérie et gagner de l’argent lorsque la voiture ne roule pas, de la même manière qu’Akamai et Cloudflare intègrent des GPU uniques dans leurs nœuds périphériques. La flotte Tesla, en tant que plus grand CDN au monde dédié à l'IA (et uniquement à l'IA, car il est impossible de mettre du contenu en cache dans les voitures), représente une réelle possibilité. BYD bénéficiera d'une opportunité similaire et d'un avantage comparable en termes de coûts d'inférence. Outre cet avantage considérable en termes de coûts d'inférence, Tesla possède le deuxième plus grand cluster Hopper cohérent au monde (après xAI) pour le pré-entraînement. Un seul cluster cohérent suffit *s'il* est suffisamment grand. La taille du cluster cohérent optimise l'utilisation des ressources pour le pré-entraînement. Personne n'a été en mesure d'égaler les clusters xAI et Tesla en termes de cohérence, de vitesse et de coût, la cohérence étant primordiale. C'est pourquoi Jensen a qualifié la conception et la mise en œuvre de leur centre de données de « surhumaines ». Il convient de noter que Tesla dispose également d'un cluster AI4 pour le post-entraînement, l'entraînement intermédiaire ou tout autre terme utilisé aujourd'hui. Tesla bénéficie également d'un avantage significatif en matière de données pour l'entraînement des modèles FSD optimaux de Chinchilla, car la vidéo du monde réel s'étend à l'infini et cet avantage en matière de données réduit encore davantage leurs coûts d'entraînement capitalisés - moins de génération de données synthétiques et d'approvisionnement/étiquetage de données 3P par rapport aux LLM d'entraînement en laboratoire. Cette efficacité relative du capital, résultant de tous ces avantages (le plus grand groupe cohérent, les clients payant pour l'inférence, la taille de l'ensemble de données et le coût continu de la génération de données), est susceptible d'avoir une incidence sur les concurrents de Robotics et FSD qui sont moins efficaces en matière de capital. Le coût par jeton est primordial pour l'IA. Google est le producteur le moins cher de jetons LLM (avec xAI en deuxième position), mais Tesla est le producteur le plus compétitif pour les jetons essentiels à la conduite autonome complète et à la robotique. Dans le domaine de l'IA, c'est la première fois de ma carrière que le fait d'être un producteur à bas coût a une réelle importance, car la quantité de jetons influence directement la qualité dans un monde où le raisonnement est primordial. Je pense que cette dynamique est largement sous-estimée par le marché. Tesla pourrait très bien être devancée par un concurrent proposant une conduite entièrement autonome (FSD) - peu probable selon moi, mais tout est possible - mais cela n'arrivera pas en raison de leurs dépenses d'investissement respectives. Si l'inférence LLM était effectuée en périphérie sur les téléphones et les PC, comme avec FSD, les dépenses d'investissement des hyperscalers seraient *bien* moindres. C'est là le véritable risque pour les dépenses des centres de données, et non la seule valeur ajoutée/macroéconomique. D'ailleurs, la mémoire est la principale gagnante dans ce scénario, qui ne se concrétisera que dans plusieurs années si les lois de la mise à l'échelle restent valables. Jim est un type intelligent, mais je pense humblement que ses opinions sur l'IA sont erronées. Ce qui me paraît également étrange, c'est que certains considèrent l'IA comme une bulle, étant donné les bulles quantiques et nucléaires extrêmement évidentes où de nombreuses actions peuvent chuter de 99 % tout en restant surévaluées.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
