Greptile a récemment publié son rapport « État de la programmation en IA 2025 ». Cette entreprise propose des services d'analyse de code IA à des clients allant de startups prometteuses comme PostHog et Brex à des entreprises du Fortune 500. Environ un milliard de lignes de code transitent par leur système chaque mois, ce qui leur donne accès à une mine de données de première main. Voici quelques chiffres du rapport : le nombre de lignes de code produites par les développeurs chaque mois est passé de 4 450 à 7 839, soit une augmentation de 76 %. La taille des demandes de fusion (PR) a également augmenté, la médiane passant de 57 à 76 lignes. Cette augmentation a été encore plus marquée pour les équipes de taille moyenne, atteignant 89 %. Je me suis déjà plaint du nombre de personnes qui utilisent le nombre de lignes de code pour mesurer la productivité, car le code est un fardeau, pas un atout. Plus de code signifie une maintenance plus complexe. Et plus de code généré par l'IA signifie aussi plus de bugs et une maintenance encore plus complexe. Les avantages des outils de programmation d'IA sont extrêmement inégalement répartis. Dans les projets bénéficiant d'une bonne couverture de tests et de limites de modules clairement définies, l'IA est un atout précieux. Cependant, dans les systèmes complexes existants et les scénarios exigeant une connaissance approfondie du domaine, son aide est limitée, voire contre-productive. Quoi qu'il en soit, il est indéniable que l'IA provoque aujourd'hui une inflation du code. L'IA augmente le nombre de lignes de code, mais cela améliore-t-il la qualité ? Il est dommage que le rapport n'ait pas mentionné ce point, car si les lignes de code sont faciles à compter, la qualité du code est beaucoup plus difficile à mesurer. Les données contenues dans le rapport méritent tout de même d'être examinées. Dans le segment des écosystèmes d'outils, le marché des bases de données vectorielles est actuellement très concurrentiel. Weaviate domine avec 25 % de parts de marché, mais six ou sept autres entreprises le talonnent de près, chacune détenant entre 10 % et 25 % des parts de marché. L'issue reste donc incertaine. Concernant les packages de mémoire pour l'IA, mem0 représente 59 % du marché, loin devant ses concurrents. Quant aux fichiers de règles, CLAUDE.md arrive en tête avec un taux d'adoption de 67 %, ce qui indique que de nombreux développeurs utilisent Claude pour créer des agents intelligents programmables. L'évolution des tendances de téléchargement des SDK est encore plus intéressante. OpenAI conserve une avance considérable avec 130 millions de téléchargements mensuels. Cependant, le taux de croissance d'Anthropic est impressionnant : il a été multiplié par 1 547 entre avril 2023 et aujourd'hui, pour se stabiliser à 43 millions. Le ratio de téléchargements entre OpenAI et Anthropic s'est resserré, passant de 47:1 début 2024 à 4,2:1 actuellement. Le SDK GenAI de Google, avec 13,6 millions de téléchargements, est nettement distancé. La section consacrée à la comparaison des performances des modèles a testé GPT-5.1, GPT-5-Codex, Claude Sonnet 4.5, Claude Opus 4.5 et Gemini 3 Pro. Plusieurs résultats sont à noter. Concernant le temps de réponse initial, les deux modèles d'Anthropic affichent moins de 2,5 secondes, tandis que les trois autres mettent plus du double. Ne sous-estimez pas ces quelques secondes : dans les scénarios de programmation interactive, un temps d'attente trop long peut perturber votre concentration et vous obliger à reprendre votre travail. En termes de débit, les deux modèles d'OpenAI sont les plus rapides, avec une médiane de 60 à 70 jetons par seconde. Anthropic se situe entre 17 et 20 jetons par seconde, et Gemini seulement entre 4 et 5. Cependant, un débit élevé ne fait pas tout ; il faut également se demander si votre cas d'utilisation requiert réellement une telle vitesse. La comparaison des coûts utilise GPT-5 Codex comme référence et le fixe à 1x. GPT-5.1 coûte également 1x, Gemini 3 Pro 1,4x, Claude Sonnet 4.5 2x et Claude Opus 4.5 3,3x. Le modèle d'Anthropic est nettement plus cher, mais de nombreux utilisateurs estiment que la qualité du code est supérieure et sont prêts à payer le prix. Le rapport se conclut par la présentation de plusieurs résultats de recherches récentes, notamment l'architecture MoE de DeepSeek-V3, le compromis entre contexte long et RAG, et le cadre d'agent intelligent à mémoire constante de MEM1. Cette section s'apparente davantage à une bibliographie destinée aux développeurs professionnels et ne sera pas développée davantage.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
