Bravo à Artificial Analysis pour cette analyse comparative, mais je suis très inquiet du moment choisi pour sa publication. Je suis fermement opposé à la diffusion de résultats incomplets, même avec la mention « ces résultats seront mis à jour au fur et à mesure des optimisations ». Cela ressemble davantage à une tentative continue d'apaiser les inquiétudes concernant la part de marché de Nvidia empiétée par les TPU, ce qui n'est rien d'autre qu'une panique alimentée par des « experts en IA », les mêmes experts qui vous fourniront un guide de 1000 pages pour utiliser des agents d'IA et générer un chiffre d'affaires annuel récurrent à sept chiffres pendant le week-end de Thanksgiving. Dans tous les cas, des résultats incomplets, même assortis de mises en garde, ne sont utiles que si l'on sait que le public prendra le temps de les lire et de les comprendre. Ce qui est inacceptable face à la prolifération de Cassandres de l'IA. Plus important encore, il existe un écart considérable entre la pile technologique que Google utilise en interne pour ses exécutions sur TPU et celle disponible aujourd'hui pour la communauté. C'est précisément ce qui explique l'avantage concurrentiel de CUDA : la maturité de sa pile logicielle est une génération en avance sur tout ce qui existe. Au revoir et joyeux Thanksgiving ! C'est l'heure de manger des pommes de terre.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.