Una descripción general de la evolución de los Code-LLM y su ecosistema relacionado de 2021 a 2025.
La evolución del desarrollo de programación y la investigación en la generación de código impulsada por IA.
Cronología del progreso de los modelos de lenguaje de código en HumanEval.
Cronología del progreso de los modelos de lenguaje de código en SWE-bench-Verified.
La evolución de los modelos lingüísticos a gran escala de código cerrado de 2018 a 2025.
Una selección curada de modelos de código de fuente abierta agrupados por arquitectura.
Comparación de arquitectura entre Kimi-K2-Instruct y Qwen3-Coder.
Una comparación de los objetivos de entrenamiento para la predicción del siguiente token (NTP) y la predicción de múltiples tokens (MTP) en modelos de lenguaje a gran escala.
Una descripción general de la fase de entrenamiento del modelo.
Clasificación de tareas de codificación y puntos de referencia.
Métricas de resumen para la evaluación de código.
Tres métodos típicos para alinear datos de código sintético.
Una descripción general de los últimos algoritmos de aprendizaje de refuerzo para la alineación.
Se utilizan métodos de aprendizaje de refuerzo para clasificar las tareas de codificación.
Proceso de generación de datos de alineación segura de código LLM.
Enlace al artículo: "De los modelos de Code Foundation a los agentes y aplicaciones: una guía práctica parxiv.org/abs/2511.18538código" https://t.co/MACzydrCIQ














