Premières impressions sur le Gemini 3 Pro avec @cline Le modèle démarre très bien, mais sa précision chute rapidement au-delà de 100 000 jetons. Vu la taille des bases de code avec lesquelles je travaille, cela correspond à peu près au nombre de jetons chargés une fois les informations nécessaires à l'exécution de la tâche lues. On constate donc clairement que le modèle peine à traiter les détails pour la quasi-totalité des tâches. Après 200 000 jetons, le système semble se bloquer et s'arrêter prématurément avec une action « Terminé », laissant des tâches inachevées qui nécessitent généralement une restauration ou l'intervention d'un nouvel agent pour recommencer (coûteux). C'est pratique pour des tâches ponctuelles de petite envergure et peut s'avérer utile pour des petits projets, mais je privilégierais tout de même Claude Code ou Codex pour une solution d'entreprise offrant un bon rapport qualité-prix grâce à leurs formules à la carte. J'ai essayé @antigravity aujourd'hui, mais il y a pas mal de problèmes liés au suivi des quotas et à la migration vers VSCode. Je vais donc devoir attendre quelques jours et le tester une fois que tout sera rentré dans l'ordre. Il est possible qu'ils aient un agent de codage qui exploite mieux le contexte, un peu comme Codex utilise GPT-5.1 de manière plus optimale. Globalement : il s’agit toujours d’un LLM. Vous constaterez des améliorations sur les petits projets et les démos, mais attendez-vous aux mêmes limitations sur le code à grande échelle. Comparé à GPT-5.1 et Claude Sonnet 4.5 sur des bases de code plus importantes, ses performances sont similaires, voire légèrement inférieures selon l’implémentation des fonctionnalités et les tâches de refactoring.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.