OpenAI lanza GPT-5.2-Codex: mejoras significativas en la programación de agentes, particularmente en tres áreas: tareas complejas a largo plazo, ciberseguridad y comprensión de la interacción visual. Posicionamiento central: El modelo de programación de agentes inteligentes más potente El 18 de diciembre de 2025, OpenAI lanzó oficialmente GPT-5.2-Codex, un sistema definido como un Modelo de Codificación Agentico. No solo responde preguntas relacionadas con el código, sino que también actúa como un ingeniero autónomo, realizando tareas, escribiendo código, depurando errores y manteniendo la concentración en las tareas durante largos periodos en un entorno de terminal real. Actualización de tres capacidades fundamentales 1. Manejo de tareas complejas y a largo plazo: Tecnología de compresión de contexto: El modelo ahora puede gestionar contextos extremadamente largos mediante tecnología de compresión nativa. A diferencia de los modelos anteriores, no olvida la configuración previa ni pierde el progreso durante la refactorización o migración de código a gran escala. • Estabilidad: Puede continuar iterando hasta que se complete la tarea, incluso si el plan cambia o el intento falla. 2. Ciberseguridad defensiva: GPT-5.2-Codex cuenta con las capacidades de ciberseguridad más sólidas hasta la fecha. • Caso práctico: Incluso con la ayuda del modelo de la generación anterior (GPT-5.1-Codex-Max), los investigadores de seguridad ya habían descubierto vulnerabilidades críticas en el framework React. GPT-5.2-Codex mejora aún más esta situación, ayudando a los expertos en seguridad a descubrir vulnerabilidades y defender el sistema. • Barreras de seguridad: Dados los riesgos de doble filo de sus poderosas capacidades, OpenAI aún no lo ha calificado como un nivel de riesgo "alto", pero ha agregado medidas de seguridad adicionales durante la implementación. 3. Capacidades visuales e interactivas: El modelo puede interpretar capturas de pantalla, diagramas de arquitectura técnica e interfaces de UI con mayor precisión. • Del diseño al código: puede leer directamente bocetos de diseño y convertirlos rápidamente en código de prototipo funcional. Puntos de referencia de rendimiento (deje que los datos hablen por sí solos) El modelo logró un rendimiento de última generación (SOTA) en ambas pruebas de referencia autorizadas que miden las capacidades de los agentes programables de IA: • SWE-Bench Pro: la precisión alcanza el 56,4% (una mejora significativa en comparación con GPT-5.1). Terminal-Bench 2.0: La precisión alcanza el 64,0%. Además, sus capacidades operativas nativas bajo el entorno Windows han sido enormemente optimizadas.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.
