N'écoutez pas les pessimistes : Gemini 3 excelle dans tous types de tâches de programmation. Que ce soit pour la création d'interfaces utilisateur pour applications web, le développement iOS en Swift, le code backend en Python, ou tout ce qui touche à l'IA/ML, etc., il est particulièrement performant et respecte les règles et les outils.
Il semblerait qu'à chaque sortie d'un modèle 3D majeur, une horde de personnes en quête de notoriété le critique ouvertement, le jugeant « décevant » et affirmant qu'il n'a pas été à la hauteur de leurs attentes. Généralement, on constate qu'ils étaient incapables de formuler correctement les consignes ou que leur tâche était tout simplement absurde et totalement déconnectée de la réalité.
Il existe quelques exceptions, comme Llama4, qui s'est avéré être une véritable horreur pour quiconque l'a essayé ne serait-ce que trois minutes. Mais on disait la même chose de GPT-5, et c'était tout simplement absurde. C'est un peu comme en bourse : les personnes sceptiques et anticonformistes attirent davantage l'attention. La négativité, ça fait vendre.
Ce qui compte (du moins pour la programmation), c'est la qualité du modèle pour les personnes déjà compétentes dans l'utilisation de modèles similaires pour le développement logiciel, et leur avis raisonné après l'avoir essayé pendant plusieurs heures sur diverses tâches réalistes et concrètes, et non sur des problèmes pièges stupides.
Et il faut du temps et de nombreux essais indépendants pour vraiment voir à quel point le modèle est cohérent et autonome, à quel point il est capable d'agir et de « ténacité et de détermination » (une partie de cela dépend aussi du harnais de l'agent, donc Cursor par rapport à Gemini-CLI), et à quel point il est fiable avec les outils.