Google Antigravity : la nouvelle plateforme de développement Agentic de Google, lancée conjointement avec Gemini 3, dote Google de son propre environnement de développement intégré Agentic. À en juger par les informations divulguées, c'est l'équipe principale de Windsurf, débauchée pour 2,4 milliards de dollars, qui en est responsable, ce qui est logique. Pas étonnant que j'aie vu le premier tweet de @_mohansolo après son arrivée chez Deepmind hier : « Un carnet antigravité », voilà d'où vient la blague. Des rumeurs circulent selon lesquelles il aurait « fait référence » au code de Windsurf ? Et que certains textes de « Cascade » n'auraient pas été correctement nettoyés ? Je ne sais pas si c'est vrai, mais si c'est le cas, je peux comprendre. 👀 Pour en revenir au sujet principal, voyons ce qui différencie ce système antigravité 👇🏻 Pourquoi l'appelle-t-on « antigravité » ? Son objectif est de « contrer le poids du développement traditionnel » (c’est-à-dire les processus de codage manuels fastidieux et inefficaces), permettant aux développeurs de « planer » à un niveau supérieur de planification des tâches, tout en laissant l’implémentation sous-jacente aux agents d’IA. Quatre principes de conception (différenciation maximale) 1. Confiance De nombreux outils de programmation IA existants affichent soit toutes les opérations sous-jacentes (ce qui peut s'avérer complexe), soit ne fournissent que le code final (sans possibilité de vérification). Antigravity introduit un mécanisme d'artefacts : l'IA génère automatiquement des preuves facilement consultables par les humains pendant son exécution, telles que des listes de tâches, des plans d'implémentation, des captures d'écran, des enregistrements d'écran du navigateur, des tutoriels pas à pas, etc., afin que les développeurs sachent clairement ce que l'IA a fait et ce qu'elle compte faire. 2. Autonomie L'agent d'IA peut accéder directement à l'éditeur, au terminal et au navigateur pour exécuter des tâches de bout en bout de manière autonome. La plateforme propose deux interfaces principales : • Vue Éditeur : Similaire à un EDI traditionnel, elle intègre une IA pour faciliter le développement. • Vue Gestionnaire (bientôt disponible) : Un véritable mode « agent-first » qui intègre des outils tels que des éditeurs et des terminaux dans les agents d'IA, permettant à plusieurs agents de travailler en parallèle et de coordonner des projets complexes comme un « centre de contrôle des tâches ». 3. Commentaires Il prend en charge les retours d'information asynchrones et non intrusifs. Par exemple, vous pouvez entourer directement des commentaires sur des captures d'écran générées par l'IA ou ajouter des annotations au texte comme dans Google Docs. Même si l'IA a déjà réalisé 80 % de la tâche, les développeurs peuvent facilement l'aider à améliorer le reste sans avoir à tout recommencer. 4. Amélioration personnelle L'IA apprendra et s'optimisera en continu en fonction des retours des utilisateurs, et les mécanismes intégrés de la plateforme rendent l'agent plus intelligent grâce à de multiples interactions. Je suis absent aujourd'hui et je vous donnerai plus de détails après l'avoir testé ce soir. L'accent mis par Google sur les modèles et les plateformes de développement cette fois-ci est assurément prometteur.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
