Aperçu de l'évolution des Code-LLM et de leur écosystème associé de 2021 à 2025.
L'évolution du développement de la programmation et de la recherche en génération de code pilotée par l'IA.
Chronologie des progrès des modèles de langage de code sur HumanEval.
Chronologie des progrès des modèles de langage de code sur SWE-bench-Verified.
L'évolution des modèles de langage à grande échelle à code source fermé de 2018 à 2025.
Une sélection de modèles de code open source triés sur le volet et regroupés par architecture.
Comparaison architecturale entre Kimi-K2-Instruct et Qwen3-Coder.
Une comparaison des objectifs d'entraînement pour la prédiction du prochain jeton (NTP) et la prédiction de jetons multiples (MTP) dans les modèles de langage à grande échelle.
Aperçu de la phase d'entraînement du modèle.
Classification des tâches de codage et des points de référence.
Métriques récapitulatives pour l'évaluation du code.
Trois méthodes typiques d'alignement des données de code synthétique.
Aperçu des derniers algorithmes d'apprentissage par renforcement pour l'alignement.
Les méthodes d'apprentissage par renforcement sont utilisées pour classifier les tâches de codage.
Processus de génération de données d'alignement sécurisé du code LLM.
Lien vers l'article : « Des modèles Code Foundation aux agents et applications : un guide pratique de l'arxiv.org/abs/2511.18538https://t.co/MACzydrCIQ














