OpenAI publie GPT-5.2-Codex : des améliorations significatives dans la programmation des agents, notamment dans trois domaines : les tâches complexes à long terme, la cybersécurité et la compréhension de l’interaction visuelle. Positionnement central : Le modèle de programmation d’agents intelligents le plus puissant Le 18 décembre 2025, OpenAI a officiellement lancé GPT-5.2-Codex, un système défini comme un modèle de codage agentique. Ce modèle ne se contente pas de répondre aux questions relatives au code, mais agit également comme un ingénieur autonome : il exécute des tâches, écrit du code, corrige les erreurs et reste concentré sur ses tâches pendant de longues périodes dans un environnement de terminal réel. Amélioration de trois capacités essentielles 1. Gérer des tâches complexes et de longue durée : • Technologie de compression du contexte : grâce à une technologie de « compression native », le modèle peut désormais gérer des contextes extrêmement longs. Contrairement aux modèles précédents, il ne perd pas les paramètres antérieurs ni la progression lors de refactorisations ou de migrations de code à grande échelle. • Stabilité : Il peut continuer à itérer jusqu'à ce que la tâche soit terminée, même si le plan change ou si la tentative échoue. 2. Cybersécurité défensive : GPT-5.2-Codex se targue des capacités de cybersécurité les plus robustes à ce jour. • Étude de cas concret : Malgré l’aide du modèle de génération précédente (GPT-5.1-Codex-Max), des chercheurs en sécurité avaient déjà découvert des vulnérabilités critiques dans le framework React. GPT-5.2-Codex améliore encore ces performances, en aidant les experts en sécurité à détecter les vulnérabilités et à défendre les systèmes. • Barrières de sécurité : Compte tenu des risques à double tranchant que représentent ses puissantes capacités, OpenAI ne l’a pas encore classée comme présentant un niveau de risque « élevé », mais a ajouté des mesures de sécurité supplémentaires lors du déploiement. 3. Capacités visuelles et interactives : Ce modèle peut interpréter avec plus de précision les captures d'écran, les schémas d'architecture technique et les interfaces utilisateur. • De la conception au code : Il peut lire directement les croquis de conception et les convertir rapidement en code prototype fonctionnel. Indicateurs de performance (laissez les données parler d'elles-mêmes) Le modèle a atteint des performances de pointe (SOTA) dans les deux tests de référence faisant autorité qui mesurent les capacités des agents programmables d'IA : • SWE-Bench Pro : La précision atteint 56,4 % (une amélioration significative par rapport à GPT-5.1). Terminal-Bench 2.0 : La précision atteint 64,0 %. De plus, ses capacités de fonctionnement natives sous l'environnement Windows ont été grandement optimisées.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
