Après quelques jours d'utilisation intensive, en résumé : c'est un bon modèle et l'interface de ligne de commande Gemini est excellente. Ce duo est peut-être idéal pour les agents fonctionnant en terminal. Mais il n'est pas parfait. Avantages : Je n'ai jamais atteint la limite de performances de mon Gemini 3 Pro et je l'ai utilisé pendant de nombreuses sessions de 3 à 5 heures, voire plus. Je suis certain d'en avoir pour mon argent. Gemini CLI + Gemini 3 Pro m'ont permis de résoudre certains problèmes de robotique Sim2Real que Codex + GPT 5.1 Codex et O3 n'avaient pas réussi à régler. Je ne vois actuellement aucun point faible à Gemini 3 Pro par rapport à mes anciens outils préférés, O3 ou GPT 5.1 Codex. L'interface en ligne de commande Gemini est sans conteste la meilleure. À mon avis, il est difficile de concevoir une interface utilisateur réussie pour les terminaux en ligne de commande : elle doit être à la fois trop basique et encombrée d'éléments superflus, de couleurs et de paramètres confus. Google excelle toujours dans ce domaine. Inconvénients : Ce modèle abandonne tout simplement et il faut recommencer la conversion. C'est dingue ! Même en essayant de le raisonner, rien n'y fait. Des exemples d'images sont joints. Si elles ne sont pas déjà affichées ici, elles se trouvent à la fin. Il m'a littéralement dit d'exécuter une politique instable dans la réalité et de simplement attraper le robot parce qu'il ne voulait pas continuer à travailler. Le modèle se bloque dans des boucles de texte, et j'ai déjà constaté ce problème à plusieurs reprises. Cela fait très longtemps que je n'ai pas vu de LLM faire ça, c'est donc assez surprenant. Au départ, le modèle m'a paru plutôt moyen. Mais en apprenant ses particularités, j'ai rapidement progressé et j'ai pu obtenir des résultats. Je préfère de loin les boucles de texte et les refus à l'expérience bien plus pénible du modèle qui boucle indéfiniment : correction de bug > nouveau bug > correction du nouveau bug, réintroduction du bug initial > répétition, comme avec o3/gpt 5.1-codex. J'ai vu beaucoup de commentaires concernant des limitations ou des changements de fonctionnalités. J'ai pu faire tourner Gemini 3 Pro en continu sans jamais rencontrer de limites. Peut-être que cela arrivera un jour, je ne sais pas. Personnellement, j'ai l'impression qu'O3 d'OpenAI fonctionne souvent en mode quantifié et que le modèle se comporte différemment de ses performances habituelles. On ne sait jamais à quoi s'attendre, ni même si le comportement va changer en cours de session. Je n'ai pas encore constaté ce problème avec Gemini 3 Pro, mais je ne l'utilise pas depuis assez longtemps pour dire si cela deviendra un problème ici, surtout si davantage de développeurs utilisent les modèles Gemini. Ce modèle semble bien parti pour devenir mon modèle principal et je vais probablement résilier mon abonnement OpenAI Pro pour l'utiliser. Cependant, les boucles et le refus catégorique de continuer à fonctionner constituent un problème qu'il convient de résoudre. Les modèles OAI affichent souvent des messages d'erreur du type « temps écoulé », mais il suffit de leur indiquer que ce n'est pas le cas. Gemini, en revanche, est plus difficile à convaincre.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.



