Yann LeCun : Pourquoi j'ai quitté Meta à 65 ans pour faire quelque chose que « tout le monde pensait être une erreur ». La semaine dernière, Yann LeCun, l'un des trois géants de l'apprentissage profond, a accordé une longue conférence. Ce lauréat du prix Turing, qui aurait dû prendre sa retraite et profiter de ses 65 ans, a choisi de quitter Meta, où il avait travaillé pendant 12 ans, et a fondé une nouvelle société appelée AMI (Advanced Machine Intelligence) à Paris. Ce qu'il va faire est complètement à l'opposé de ce sur quoi misent toutes les grandes entreprises de la Silicon Valley. Alors qu'OpenAI, Google et Anthropic développaient frénétiquement des LLM (Large Language Models), Yann a déclaré : « Cette voie ne fonctionnera pas ; nous avons besoin d'un modèle du monde. » Alors que tout le monde spéculait sur le nombre d'années nécessaires pour atteindre l'intelligence artificielle générale, Yann déclara : « Vous vous êtes tous fait avoir. Même dans le scénario le plus optimiste, il faudra entre 5 et 10 ans pour atteindre le niveau d'intelligence des chiens. » Quand les partisans de la théorie apocalyptique de l'IA affirment que les machines domineront l'humanité, Yann répond : « C'est de la pure illusion. » Pourquoi quitter Meta maintenant ? Le raisonnement de Yann est simple : Meta est en train de se fermer. Le laboratoire FAIR (Facebook AI Research), qu'il a fondé chez Meta, était autrefois le plus ouvert du secteur : toutes les recherches y étaient publiées et tout le code était open source. PyTorch y a vu le jour. Cette culture de l'ouverture a un jour contraint Google à devenir lui aussi plus ouvert. Mais maintenant, les choses ont changé. OpenAI a commencé à développer sa technologie en secret il y a quelques années, et Google a emboîté le pas. Aujourd'hui, même Meta s'oriente dans cette direction. Il a été demandé à FAIR de travailler sur des projets plus courts, de publier moins d'articles et de coopérer davantage avec l'équipe LLM. « On ne peut pas qualifier de recherche ce qui n'est pas publié », a déclaré Yann, « sinon on se trompe facilement soi-même. » Il a vu trop de « projets nombrilistes » au sein de grandes entreprises, où un groupe de personnes ferme la porte et pense avoir réalisé une percée révolutionnaire, ignorant complètement que des personnes à l'extérieur ont déjà fait bien mieux. Plus important encore, si vous dites aux scientifiques : « Venez travailler pour nous, mais vous ne pouvez pas dire ce que vous faites ; peut-être que cela aura un impact sur les produits dans 5 ans », personne ne sera motivé pour réaliser une véritable percée. Il a donc décidé de faire son coming out. Mais pourquoi est-il possible de créer une entreprise maintenant ? Il y a là un phénomène très intéressant. Auparavant, seules les grandes entreprises pouvaient mener des recherches à long terme en intelligence artificielle. Bell Labs s'appuyait sur le monopole des télécommunications d'AT&T, IBM Research sur son monopole des ordinateurs centraux et Xerox PARC sur son monopole des photocopieurs. Seuls les profits excédentaires générés par un monopole peuvent permettre de financer une équipe de recherche qui ne tient pas compte des rendements à court terme. Mais les choses sont différentes maintenant. Les investisseurs ont des attentes sans précédent envers l'IA et sont prêts à investir massivement dans les startups, permettant ainsi aux équipes de se concentrer sur la recherche pendant les deux premières années. « C'était impossible auparavant », a déclaré Yann. Le modèle d'AMI consiste donc à mener des recherches en amont, à publier l'intégralité des résultats, mais aussi à développer des produits. Le produit qu'ils souhaitent créer est un système intelligent basé sur un modèle du monde. Qu'est-ce qu'un modèle mondial ? Pourquoi Yann pense-t-il que c'est la bonne voie ? Il s'agit de la partie la plus cruciale de tout l'entretien. La critique de Yann à l'égard des LLM est très directe : ils ne sont pas capables de gérer le monde réel. Il a fait les calculs : L'entraînement d'un bon LLM nécessite 30 billions de jetons. Chaque jeton faisant environ 3 octets, il faudrait donc 10 puissance 14 octets. Qu'est-ce que cela signifie ? Il s'agit de toutes les données textuelles que l'on peut trouver sur Internet. Et si on passait à la vidéo ? 10 puissance 14 octets, à un taux de compression de 2 Mo par seconde, ne suffisent que pour 15 000 heures de vidéo. Que représentent 15 000 heures ? C’est le temps total de vidéos mises en ligne sur YouTube en 30 minutes. Cela correspond également au temps d’éveil total d’un enfant de 4 ans (environ 16 000 heures en 4 ans). À quantité de données égale, une vidéo contient bien plus d'informations qu'un texte. De plus, les vidéos contiennent beaucoup de redondances, et c'est précisément cette redondance qui est la clé de l'apprentissage. On ne peut rien apprendre de choses totalement aléatoires ; ce qu'on peut apprendre présente toujours des schémas et des redondances. Yann en conclut donc qu'il est impossible de former une IA de niveau humain en utilisant uniquement du texte. Alors, qu'est-ce que le modèle du monde exactement ? Beaucoup de gens pensent que les modèles du monde sont des « simulateurs », comme des moteurs de jeu, qui reproduisent chaque détail du monde. Yann a affirmé que cette interprétation était totalement erronée. Il a donné un exemple : la dynamique des fluides numérique (CFD). Pour simuler l'écoulement de l'air autour d'un avion, il faudrait diviser l'espace en petits carrés, chacun contenant des variables telles que la vitesse, la densité et la température, puis résoudre des équations aux dérivées partielles. Il s'agit déjà d'une représentation abstraite. Dans la réalité, les molécules d'air entrent en collision, mais personne ne simule chacune d'entre elles ; les besoins en calcul seraient astronomiques. À un niveau plus fondamental ? Les molécules sont composées d'atomes, les atomes sont composés de particules, et les particules sont décrites à l'aide de la théorie quantique des champs. Si vous vouliez vraiment simuler notre conversation actuelle du point de vue de la théorie quantique des champs, il vous faudrait un ordinateur quantique de la taille de la Terre, et celui-ci ne pourrait simuler que quelques nanosecondes. Alors, que faisons-nous ? Nous inventons l'abstraction. Particules, atomes, molécules, protéines, cellules, organes, organismes, sociétés, écosystèmes — chaque couche ignore une grande quantité de détails concernant la couche inférieure. Chaque domaine scientifique implique, par essence, de faire des prédictions à un certain niveau d'abstraction. Les physiciens ont un exemple classique : une boîte remplie de gaz, dans laquelle on peut simuler le mouvement de chaque molécule, mais personne ne le fait. Nous utilisons PV=nRT, où pression × volume = nombre de particules × température. Voici l’idée centrale du modèle du monde : faire des prédictions dans un espace de représentation abstrait, et ne prédire que les parties pertinentes. Si je vous demandais où se trouvera Jupiter dans 100 ans, parmi toutes les informations la concernant, vous n'auriez besoin que de six chiffres : trois coordonnées de position et trois composantes de sa vitesse. Rien d'autre n'est pertinent. Pourquoi LLM ne peut-il pas faire cela ? Le problème avec les LLM, c'est qu'ils essaient de prédire chaque pixel, chaque jeton. C'est tout simplement impossible pour des données multidimensionnelles, continues et bruitées. Il est impossible de prédire l'image suivante d'une vidéo au niveau du pixel car il y a trop de détails imprévisibles. La façon dont une feuille dérive, la formation d'une éclaboussure d'eau — tout cela est aléatoire. LLM fonctionne sur le texte car le texte lui-même est discret et de dimension relativement faible. Cependant, leurs performances sont médiocres lors des tâches visuelles, car toutes les capacités visuelles sont entraînées séparément et ne sont pas apprises par le LLM lui-même. La solution de Yann est JEPA (Joint Embedding Predictive Architecture). En termes simples : 1. Faites passer à la fois l'entrée X et le Y à prédire à travers un encodeur pour obtenir une représentation abstraite. 2. Faire des prédictions dans l'espace de représentation abstrait 3. Cet espace de représentation ignore automatiquement les détails imprévisibles (y compris le bruit). Il réfléchissait à cette idée depuis longtemps. Un parcours de réflexion de 20 ans Yann a commencé ses recherches sur l'apprentissage non supervisé au début des années 2000, avec l'idée d'utiliser un auto-encodeur : l'entrée est représentée par un encodeur, puis l'entrée est reconstruite par un décodeur. Mais ce raisonnement est erroné. Obliger la représentation à inclure toutes les informations saisies est une mauvaise idée. Par la suite, ils ont essayé différentes méthodes de régularisation : auto-encodeurs épars, auto-encodeurs de débruitage et machines de Boltzmann restreintes. Ces solutions étaient toutes assez populaires à l'époque, mais aucune n'a réellement résolu le problème. En 2015, Yann a prononcé un discours d'ouverture à NIPS (aujourd'hui NeurIPS), qui portait sur les modèles du monde. Ses élèves ont commencé à réaliser des prédictions vidéo. Mais la même erreur a alors été commise : prédire au niveau du pixel. C'est tout simplement impossible à bien faire. La prédiction est non déterministe ; il faut des variables latentes pour représenter tout ce que l'on ignore. Ils ont essayé pendant de nombreuses années, mais les résultats n'ont pas été idéaux. Le tournant a eu lieu il y a cinq ans. Stéphane Deny, le postdoctorant de Yann, a mis une idée à l'épreuve : Au lieu d'un apprentissage contrastif, il maximise directement la quantité d'informations dans la sortie de l'encodeur. Au départ, Yann pensait que cela ne fonctionnerait pas car il avait vu Geoffrey Hinton faire des tentatives similaires dans les années 1980, qui avaient toutes échoué. Vous ne pouvez pas maximiser directement l'information car vous ne pouvez calculer que la limite supérieure de l'information, et non la limite inférieure. Mais cela a effectivement fonctionné. Cette méthode est appelée les jumeaux de Barlow. Plus tard, ils l'ont encore amélioré avec VICReg (régularisation de la variance, de l'invariance et de la covariance), qui était encore plus efficace. Récemment, Randall Balestriero (qui est également apparu dans ce podcast) et Yann ont lancé I-JEPA, qui utilise SigReg pour garantir que la sortie de l'encodeur est une distribution gaussienne isotrope. Cette méthode est désormais bien établie. Pourquoi dit-on que le LLM n'atteindra jamais l'AGI ? Yann critique vivement le « culte du LLM » qui sévit actuellement dans la Silicon Valley. « Tout le monde fait la même chose parce que la concurrence est si féroce que personne n'ose prendre un détour. » OpenAI, Meta, Google, Anthropic — tout le monde est impliqué : • Augmenter la taille du modèle • Entraîner le modèle sur davantage de données synthétiques • Acheter des données sous licence • Recruter des milliers de personnes pour effectuer du RLHF • Inventer de nouvelles techniques d'apprentissage par renforcement Ils pensent que cette voie mène à la superintelligence. Yann a déclaré : C'est un vœu pieux, cela ne réussira jamais. Ils ont ensuite ajouté des techniques de « raisonnement », qui consistent essentiellement à faire générer au modèle des chaînes de pensée extrêmement longues, à générer un grand nombre de résultats candidats, puis à utiliser une fonction d'évaluation pour sélectionner le meilleur. « Cela ne nous mènera nulle part. » Il a déclaré qu'il existait désormais une sorte de «complexe de supériorité» dans la Silicon Valley. DeepSeek a fait son apparition il y a quelque temps et a obtenu de bons résultats grâce à différentes méthodes, ce qui a surpris les acteurs de la Silicon Valley. Vous pensez être les seuls intelligents ? Combien de temps faudra-t-il pour que la véritable intelligence artificielle générale (AGI) se développe ? Yann a commencé par affirmer que le concept d’« intelligence générale » est absurde. Nous, les humains, nous croyons « universels », mais en réalité, nous sommes extrêmement spécialisés. Nous sommes très à l'aise dans le monde réel, très sociables, mais nous sommes nuls aux échecs. Les machines nous surpassent depuis toujours. Nous pensons être polyvalents simplement parce que les problèmes auxquels nous pouvons penser sont justement des problèmes que nous pouvons résoudre. Mais il existe de nombreux problèmes que nous n'avons même jamais imaginés. Par conséquent, au lieu de dire « intelligence générale », dites « intelligence de niveau humain ». Dans le scénario le plus optimiste, les chiens atteindront leur niveau d'intelligence maximal en 5 à 10 ans. Pourquoi un chien ? La principale différence entre les chiens et les humains réside dans la taille du cerveau et le langage. Le langage ne représente en réalité qu'une infime partie, se limitant aux aires de Broca et de Wernicke, deux petites zones du cortex qui ont évolué en moins d'un million d'années. Nous disposons déjà de LLM pour le traitement du langage, que l'on peut considérer comme les aires du langage dans le cerveau. Ce qui nous manque maintenant, c'est le cortex préfrontal, où réside le modèle du monde. Mais Yann a également déclaré que nous pourrions rencontrer des obstacles que nous ne pouvons pas voir actuellement, et qui pourraient mettre 20 ans, voire plus, à se manifester. « Cela s'est produit à maintes reprises dans l'histoire de l'IA. » Le paradoxe de Moravec est toujours d'actualité. Moravec a déclaré en 1988 : « Les tâches intellectuelles que nous trouvons difficiles (jouer aux échecs, calculer des scores) peuvent être facilement effectuées par des ordinateurs. » Mais certaines choses que nous tenons pour acquises (des choses que les chats peuvent faire) sont impossibles pour les ordinateurs. Quarante-sept ans ont passé, et ce paradoxe persiste. Nous pouvons désormais entraîner des robots à marcher et à éviter les obstacles, mais ils sont beaucoup moins agiles et créatifs qu'un chat. « Ceux qui affirment que nous aurons une intelligence artificielle générale d'ici un an ou deux se font de sérieux illusions. Le monde réel est bien plus complexe qu'ils ne l'imaginent. » On ne peut pas comprendre le monde réel en le tokenisant puis en utilisant le LLM. L'IA va-t-elle supprimer tous les emplois ? Yann a dit : N'écoutez pas les scientifiques spécialisés en IA parler d'économie. Interrogez n'importe quel économiste, et aucun ne prédira un chômage de masse. Il a donné un exemple : le métier le plus recherché dans les années 1980 était celui d’« ingénieur des connaissances ». À cette époque, une tendance majeure se dessinait : les systèmes experts. Le Japon lança alors le projet « Ordinateur de cinquième génération » afin de créer un processeur capable d’exécuter du Lisp et des moteurs d’inférence. Le travail d'un ingénieur des connaissances consiste à travailler aux côtés d'un expert, à transformer les connaissances de cet expert en règles et en faits, puis à permettre à l'ordinateur de reproduire le travail de l'expert. Il s'agit d'une version manuelle du clonage de comportement. Le résultat ? Cela ne fonctionne que dans très peu de domaines, et il existe très peu d'applications à la fois économiquement viables et hautement fiables. Ce n'est pas la voie de l'intelligence humaine. Mais à l'époque, les gens pensaient aussi que c'était l'avenir, tout comme aujourd'hui on pense que le LLM représente l'avenir. « Au cours de ma carrière, cette illusion selon laquelle « les dernières technologies sont sur le point d'apporter l'IA générale » s'est produite trois fois, et probablement cinq ou six fois avant moi. » En 1956, Newell et Simon ont créé le « General Problem Solver » (un nom très modeste, n'est-ce pas ?). Ils estiment que tous les problèmes peuvent être représentés comme une recherche : il existe une fonction objectif, un espace de solutions, et la recherche consiste simplement à trouver la solution optimale. Ce qu'ils ignorent, c'est que tous les problèmes intéressants ont une complexité exponentielle. Par conséquent, le solveur de problèmes général n'est pas général du tout. Sécurité de l'IA : Pourquoi Yann n'est-il pas inquiet ? Beaucoup de gens lui demandent quoi faire lorsque ses opinions diffèrent de celles de Hinton et de Bengio. La réponse de Yann était pragmatique : Bien sûr, la sécurité est importante, mais c'est une question d'ingénierie, pas une question de principe. Il a cité l'exemple des moteurs à réaction. On peut parcourir la moitié du globe en avion bimoteur pendant 17 heures, en toute sécurité. C'est incroyable. Les températures à l'intérieur d'un turboréacteur sont insupportables pour n'importe quel métal. La force centrifuge générée par sa rotation atteint des centaines de tonnes. Logiquement, cet engin ne devrait même pas fonctionner. Mais cela fonctionne car la conception technique est bonne. La première fois que nous construirons un moteur à réaction, il explosera à coup sûr après 10 minutes de fonctionnement. Il ne sera ni économe en carburant, ni fiable. Mais les facteurs économiques étaient si puissants qu'ils ont finalement permis d'atteindre le niveau de fiabilité que nous connaissons aujourd'hui. Il en va de même pour l'IA. Nous allons d'abord créer une IA de type félin, puis ajouter des garde-fous pour l'empêcher de faire des choses dangereuses. Stuart Russell a donné un exemple : si vous demandez à un robot domestique de vous apporter du café et que quelqu'un bloque la machine à café, le robot va-t-il repousser cette personne, voire la blesser, pour accomplir sa tâche ? Yann a déclaré que cet exemple était stupide car il était trop facile à corriger. Il suffit d'ajouter une contrainte de bas niveau : le robot domestique doit rester à l'écart des personnes, et si quelqu'un bloque son passage, il doit lui demander de s'écarter, mais il ne doit jamais blesser personne. Si un robot tient un couteau et coupe un concombre, ajoutez une contrainte : lorsqu’il a un couteau à la main, il ne doit pas agiter le bras s’il y a des personnes à proximité. Ce sont des contraintes strictes, pas des réglages fins. Le problème avec LLM, c'est qu'on ne peut que l'affiner, et qu'il peut toujours être jailbreaké. Cependant, si vous utilisez une architecture orientée vers un objectif, que vous disposez d'un modèle du monde, que vous pouvez prédire les conséquences des actions, puis sélectionner des séquences d'actions par optimisation tout en respectant un ensemble de contraintes, alors la structure est sûre. Il ne peut échapper à ces contraintes car il ne s'agit pas de préférences apprises par l'entraînement, mais d'éléments inhérents à l'architecture du système. L'intelligence n'est pas synonyme de désir de dominer. C'est un point que Yann souligne à plusieurs reprises. « Ce n'est pas parce qu'une entité est intelligente qu'elle veut dominer les autres. Ce sont deux choses différentes. » Les humains veulent influencer les autres, parfois par la domination, parfois par le prestige ; c'est quelque chose que l'évolution a inscrit dans nos gènes, car nous sommes une espèce sociale. Il n'y a aucune raison d'inscrire cette force motrice dans les systèmes d'IA, et ils ne la développeront pas d'eux-mêmes. De plus, « les personnes les plus intelligentes ne sont souvent pas celles qui veulent être le patron ». Il a déclaré : « Regardez la scène politique internationale ; ceux qui veulent être dirigeants ne sont pas les plus intelligents. » Nombre de personnes parmi les plus intelligentes ne souhaitent étudier que leurs propres problèmes et ne s'intéressent pas à ceux des autres. Pourquoi devrions-nous rester ouverts ? AMI publiera toutes les recherches en amont. Yann a déclaré que ce n'était pas une question de sentimentalité, mais de nécessité. « Si vous ne publiez pas, vous pouvez facilement vous tromper vous-même. » Il l'avait vu trop souvent : des personnes à l'intérieur de l'entreprise étaient extrêmement enthousiastes à propos d'un projet, pensant qu'il s'agissait d'une percée révolutionnaire, mais elles n'avaient aucune idée que des personnes à l'extérieur avaient déjà fait un bien meilleur travail. De plus, si vous dites aux scientifiques : « Venez travailler, mais ne dites pas ce que vous faites ; il y aura peut-être un produit dans 5 ans », ils ne seront pas motivés. Ils ont besoin de retours d'information et de reconnaissance à court terme de la part de leurs pairs. Pour parvenir à une véritable avancée, il faut absolument que les gens publient vos travaux. Il n'y a pas d'autre solution. « C’est quelque chose que beaucoup d’entreprises oublient aujourd’hui. » Un phénomène intéressant : la Chine s'ouvre de plus en plus. Yann souligne un phénomène ironique. Le meilleur modèle open source actuellement vient de Chine. Les entreprises américaines (à l'exception de Meta) se replient sur elles-mêmes afin de protéger leur « avantage concurrentiel ». Mais les entreprises et les institutions de recherche chinoises sont totalement ouvertes. Par conséquent, de nombreuses personnes dans l'industrie et le monde universitaire utilisent désormais des modèles chinois car elles ont besoin de modèles open source. De nombreuses personnes du secteur industriel américain sont très insatisfaites de cette situation. Ils veulent un bon modèle open source non chinois. Llama 4 aurait pu être un bon choix, mais c'est décevant. Peut-être que Meta sera corrigé, ou peut-être qu'il fermera ses portes ; on ne sait pas. Mistral vient de publier un excellent modèle de génération de code, et ils le laissent ouvert, ce qui est génial. Pourquoi n'a-t-il pas encore pris sa retraite ? Yann a 65 ans, a reçu le prix Turing et vient de se voir décerner le prix de la reine Elizabeth. Elle pourrait facilement prendre sa retraite. Sa femme souhaite également qu'il prenne sa retraite. « Mais j'ai une mission. » Il a toujours pensé que rendre les gens plus intelligents, ou utiliser des machines pour aider les gens à devenir plus intelligents, était fondamentalement une bonne chose. L'intelligence est la denrée la plus rare au monde, surtout au sein des gouvernements (dit-il en riant). Nous sommes limités par une quantité finie d'intelligence, en tant qu'espèce et en tant que planète. C'est pourquoi nous consacrons d'énormes ressources à l'éducation des individus. Accroître la quantité totale de renseignements au service de l'humanité est fondamentalement une bonne chose. Bien sûr, il y a des dangers, et bien sûr, il faut prendre des précautions. De même qu'il faut s'assurer de la sécurité et de la fiabilité d'un moteur à réaction, une voiture ne vous tuera pas lors d'une collision mineure. Mais il s'agit d'un problème d'ingénierie, et non d'un problème insurmontable. C'est aussi un problème politique, mais il n'est pas insurmontable. Tous les projets de sa carrière ont tourné autour de cet objectif : rendre les gens plus intelligents. C’est pourquoi il est devenu professeur, pourquoi il vulgarise largement la science sur les réseaux sociaux et pourquoi il mène des recherches sur l’intelligence artificielle. « On croit souvent que la fabrication de machines intelligentes autonomes et la fabrication de machines qui assistent les humains sont deux technologies différentes. Non, il s'agit exactement de la même technologie. » Yann ne se contente pas de faire de la recherche en IA. Il adore la voile, en particulier les multicoques (trimarans et catamarans). Il possède plusieurs bateaux. Il prend plaisir à construire des machines volantes. « Je ne les appelle pas avions, car beaucoup d'entre elles ne ressemblent pas du tout à des avions, mais elles peuvent bel et bien voler. » Son père était ingénieur aéronautique et construisait des avions pendant son temps libre, ainsi que ses propres systèmes de radiocommande. C'est devenu une activité familiale. Son frère s'y adonnait également ; il travaillait chez Google Research à Paris. Durant la pandémie, il s'est mis à l'astrophotographie et a acheté plusieurs télescopes pour photographier le ciel nocturne. Il fabrique des instruments de musique électroniques. Passionné de musique et de musique électronique depuis l'adolescence, il possède aujourd'hui plusieurs synthétiseurs. Il conçoit ses propres instruments électroniques, du genre qu'on joue en soufflant ou en appuyant avec les doigts, mais qui produisent des signaux de contrôle. Il a déclaré que la navigation et le modèle du monde sont très similaires. Pour bien naviguer à la voile et être rapide, il faut prévoir beaucoup de choses : comment les vagues vont affecter le bateau, quand les rafales de vent vont arriver et si le bateau va gîter. En gros, vous devez effectuer des calculs de dynamique des fluides mentalement. Il est essentiel de comprendre comment l'air circule autour de la voile. Si l'angle d'attaque est trop important, des turbulences se formeront et la portance diminuera considérablement. « Régler les voiles nécessite de faire des calculs CFD mentalement, mais à un niveau abstrait, on ne résout pas les équations de Stokes. » C’est pourquoi il adore la voile : il faut se construire un modèle mental prédictif pour bien la pratiquer. Conseils finaux Quelqu'un a demandé : Si je devais commencer une carrière dans l'IA aujourd'hui, que devrais-je apprendre ? La réponse de Yann pourrait vous surprendre. Apprenez des choses qui ont une longue durée de vie, apprenez des choses qui vous aident à apprendre à apprendre. La technologie évolue si vite qu'il faut être capable d'apprendre rapidement. Comment y parvenir ? En apprenant les bases. De plus, ces choses ne relèvent souvent pas de l'informatique. « Je suis professeur d'informatique, mais je vous conseille de ne pas trop étudier l'informatique. Et je dois être franc : j'ai fait des études d'ingénierie électrique ; je ne suis pas un véritable informaticien. » Vous devriez apprendre : • Les mathématiques, en particulier celles qui sont liées à la réalité • La modélisation • Les connaissances acquises dans les disciplines de l'ingénierie Aux États-Unis, les cours de calcul différentiel et intégral I, II et III constituent une base solide. Cependant, les départements d'informatique n'exigent que le cours de calcul différentiel et intégral I, ce qui est insuffisant. La théorie des probabilités, l'algèbre, la cybernétique, le traitement du signal et l'optimisation sont tous extrêmement utiles pour l'IA. La physique est également intéressante car elle consiste à se demander « que dois-je représenter dans la réalité afin de faire des prédictions ? » Voilà l'essence de l'intelligence. Bien sûr, il faut aussi acquérir suffisamment de connaissances en informatique, savoir programmer et savoir utiliser un ordinateur. Même si l'IA vous aide en programmation, vous devez quand même comprendre ces notions. Quelqu'un a demandé : Que se passera-t-il si l'IA aide à la programmation ? Yann a déclaré : Un phénomène intéressant va se produire : une grande partie du code ne sera utilisée qu'une seule fois. Parce que programmer est devenu tellement bon marché. Vous demandez à un assistant IA de « dessiner un schéma » ou de « créer un petit simulateur », il écrit du code, vous l'utilisez une fois et puis vous le jetez. « Il est donc erroné de dire que nous n'avons plus besoin de programmeurs. Le coût des logiciels a diminué, il s'agit simplement de la prochaine étape. » Mais cela ne signifie pas que les ordinateurs deviendront moins importants ; au contraire, ils deviendront encore plus importants. Tout au long de l'entretien, Yann a fait preuve d'une qualité très rare. Il critique la tendance dominante actuelle, mais pas pour le simple plaisir de critiquer. Il dispose d'alternatives claires, de décennies de réflexion accumulée, de leçons tirées des échecs et de percées récentes. Il avait 65 ans et aurait pu se reposer sur ses lauriers, mais il a choisi de faire quelque chose que « tout le monde pensait être une erreur ». Peut-être a-t-il raison. Peut-être que dans cinq ans, nous constaterons que, même si tout le monde développe des LLM, la véritable percée viendra des modèles mondiaux. Peut-être que dans 20 ans, nous nous retrouverons face à un obstacle imprévu. Mais au moins, certaines personnes empruntent une voie différente. Et il se trouve que cette personne est celle qui a inventé les réseaux neuronaux convolutifs, qui a persévéré pendant des décennies durant l'hiver de l'IA et qui a été témoin de trois bulles de « cette fois, nous pouvons définitivement atteindre l'AGI ». Ses paroles méritent d'être écoutées, même si elles sont désagréables à entendre.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.