J'ai longtemps été pessimiste quant à l'utilisation des LLM, mais je pense désormais que ces outils, ainsi que les outils de raisonnement, ont atteint un stade où ils pourraient véritablement transformer les sciences et l'ingénierie. Je ne crois pas qu'il s'agisse d'une intelligence artificielle générale, mais plutôt d'une application plus large d'outils de généralisation comme la recherche Google ou les solveurs SAT. Cela soulève des questions. En programmation, la pratique semble se transformer radicalement. Empêcher les étudiants d'utiliser l'IA paraît difficile, mais son utilisation pourrait nuire à la compréhension et à la progression des débutants. Parallèlement, l'IA semble être un atout considérable pour les experts. On m'a demandé comment les étudiants devraient s'y retrouver. Selon moi, apprendre à programmer sans IA est probablement essentiel pour obtenir les meilleurs résultats. Ajoutons à cela d'autres risques liés à l'IA, comme la psychose des titulaires de masters en droit. On verra beaucoup plus de débutants revendiquer des « percées » dans des disciplines qu'ils ne maîtrisent pas. C'est regrettable, car cela risque d'entraîner un retour à la course aux diplômes. Malheureusement, les experts n'ont pas assez de temps pour examiner le travail des débutants. Tant que les modèles du monde des masters en droit ne seront pas suffisamment sophistiqués pour s'auto-vérifier, ce phénomène est probablement inévitable. Quelles conséquences cela aura-t-il pour la science et l'ingénierie ? Je suis peut-être pessimiste, mais je pense que la singularité est encore loin. Je crois plutôt que l'inefficacité de l'IA contrebalancera presque totalement ses progrès, ce qui n'entraînera que des avancées modestes. Personnellement, je ralentis le rythme des contributions à @deep_chem car je me méfie davantage du code proposé. Les étudiants essaient d'utiliser l'IA et contribuent avec du code incorrect. Par conséquent, je n'intègre que le code validé par des contributeurs reconnus… L'IA a ralenti les progrès en alourdissant la charge de travail liée à la revue de code. Ce n'est qu'une anecdote, mais j'observe des schémas similaires ailleurs. Parallèlement, les experts utiliseront l'IA pour réaliser des percées. L'équilibre entre efficacité croissante et inefficacité restera fragile. Le développement de vérificateurs automatisés devient donc le plus grand défi de l'IA. Je crains que le chemin ne soit long et difficile, mais c'est là que réside la voie des véritables avancées. (Dernière précision : cet article est entièrement exempt d’IA ! Éviter l’IA favorise une réflexion plus claire lors des séances de brainstorming.)
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.