J'étais particulièrement curieux de demander à @karpathy pourquoi il a fallu plus de dix ans pour que les voitures autonomes passent des démonstrations spectaculaires à un déploiement, même partiel. Andrej a dirigé l'IA chez Tesla pendant cinq ans. Je voulais vraiment savoir si ces frictions devaient allonger nos délais de développement de l'IA générale, ou si elles étaient propres à la conduite autonome. Conduire comporte des risques importants. Les humains sont des conducteurs étonnamment fiables : on compte un accident grave tous les 640 000 kilomètres ou tous les 7 ans. Les voitures autonomes doivent atteindre, voire dépasser, ce niveau de sécurité avant de pouvoir être mises en service. Mais la plupart des domaines sont-ils ainsi ? Avant l’entretien, il me semblait que presque tous les domaines où l’on souhaiterait intégrer l’IA générale présentaient un coût d’échec bien plus faible. Si des ingénieurs logiciels totalement autonomes n’avaient pas le droit à l’erreur pendant sept ans, le déploiement serait effectivement extrêmement lent. Andrej a soulevé un point intéressant que je n'avais jamais entendu auparavant : comparé à la conduite autonome, le génie logiciel présente un coût d'échec plus élevé (et potentiellement illimité) : Si vous écrivez du code destiné à la production, la moindre erreur peut engendrer une faille de sécurité. Les numéros de sécurité sociale de centaines de millions de personnes pourraient ainsi être divulgués. En matière de conduite autonome, si les choses tournent mal, vous pourriez être blessé. Il y a des conséquences bien pires. Mais en informatique, le potentiel de catastrophe est quasi illimité. À certains égards, le génie logiciel est un problème bien plus complexe [que la conduite autonome]. La conduite autonome n'est qu'une application parmi des milliers d'autres. C'est presque un domaine très spécifique. En revanche, le génie logiciel en général offre un champ d'application beaucoup plus vaste. Il existe potentiellement une autre raison pour laquelle la transition des modèles linéaires logiques (LLM) vers une intelligence artificielle générale (AGI) largement déployée pourrait se produire beaucoup plus rapidement : les LLM nous fournissent gratuitement la perception, les représentations et le bon sens (pour gérer les exemples hors distribution), alors que ces éléments ont dû être conçus de toutes pièces pour les voitures autonomes. J’ai interrogé Andrej à ce sujet. Je ne sais pas exactement ce que nous obtenons gratuitement. Les masters en droit sont encore assez imparfaits et comportent de nombreuses lacunes qu'il reste à combler. Je ne pense pas que nous obtenions une généralisation miraculeuse d'emblée. L'autre point que je voulais aborder, c'est que les voitures autonomes sont encore loin d'être au point. Leur déploiement reste très limité. Même Waymo ne possède que très peu de véhicules. Ils ont conçu un système futuriste. Ils ont dû freiner son développement, mais cela a rendu le système non rentable. De plus, lorsqu'on observe ces voitures sans conducteur, on constate une intervention humaine plus importante qu'on ne le pense. En un sens, on n'a pas réellement supprimé la personne, on l'a simplement déplacée dans un endroit invisible.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.