Le code généré par l'IA doit être considéré comme une « première ébauche », et non comme une « ébauche finale » ! Sur son blog, @addyosmani, responsable de l'ingénierie chez Google Chrome, son point de vue est très clair : le code généré par l'IA doit être considéré comme une « première ébauche » plutôt que comme une « ébauche finale », et l'IA doit être traitée comme « un stagiaire assidu mais inexpérimenté ». Osmani soutient que le code généré par l'IA semble souvent parfait, mais qu'il manque d'une compréhension approfondie du contexte et d'une saisie du sens voulu. Par conséquent, nous devrions traiter le code de l'IA comme nous le ferions pour celui d'un développeur junior ou d'un stagiaire. • Il peut être utilisé pour améliorer la vitesse : laissez-le écrire le code répétitif et effectuer les tâches manuelles fastidieuses. • Ne jamais externaliser le processus de « lecture » et de « compréhension » : vous pouvez laisser l’IA écrire, mais cela doit être lu et relu par des humains. Pourquoi est-il nécessaire de procéder ainsi ? (Risques potentiels) 1. Le décalage entre l'intention et le comportement • Si vous ne lisez pas et ne comprenez pas le code, vous rompez le lien entre le « comportement du code » et « l'intention de conception ». • Si le code présente un problème et que vous ne l'avez pas revu au préalable, vous ne saurez pas pourquoi il a été écrit de cette façon, et la maintenance deviendra un véritable cauchemar. 2. Atrophie des compétences Accepter aveuglément les résultats de l'IA peut éroder l'esprit critique et les capacités de débogage des ingénieurs. Comme l'a dit un ingénieur : « Si nous cessons de valider les résultats de l'IA, cela introduira non seulement des bugs immédiats, mais réduira aussi systématiquement notre capacité à détecter ces erreurs. » 3. Trompeur car « semble correct » : le code d'IA s'exécute et réussit souvent les tests, mais peut contenir des défauts logiques subtils, des vulnérabilités de sécurité (telles que des vulnérabilités d'injection) ou ne pas gérer correctement les cas limites. • N'oubliez pas : LLM ne publie pas de code défectueux ; c'est l'équipe qui le fait. La responsabilité incombe toujours aux personnes. Conseils pratiques : Comment coexister avec l’IA Osmani a formulé quelques suggestions concrètes pour aider les équipes à maintenir la qualité du code tout en tirant parti de l'IA pour améliorer leur efficacité : • Mettre en place un système « humain dans la boucle » : l’IA peut rédiger la première version, mais les humains doivent s’assurer que le code se comporte comme prévu. • Examen rigoureux du code : Les normes d’examen du code d’IA ne doivent pas être abaissées, et doivent même être plus strictes que celles appliquées à l’examen du code des collègues humains. • Il ne suffit pas de vérifier que le code fonctionne : il ne suffit pas de s’assurer qu’il fonctionne ; il faut aussi comprendre son fonctionnement. N’intégrez aucun code que vous ne comprenez pas. • Utiliser des outils automatisés : Bien que la vérification humaine reste nécessaire, des outils d’agents intelligents peuvent être utilisés pour automatiser les vérifications de code, la correspondance des expressions régulières et les tests unitaires comme ligne de défense auxiliaire. Adresse du blog :
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
