Google vient de lancer aujourd'hui son mode le plus puissant, Gemini 3, optimisé par Deep Think. Il a été chargé d'analyser les tendances de développement du secteur de l'IA pour 2026 sur la base du rapport OpenRouter. Les deux derniers me semblaient assez nouveaux ; je ne m'y attendais vraiment pas : Le « prix avantageux » des coûts d’inférence et la transformation des modèles de facturation : Les modèles commerciaux des fournisseurs de services cloud évolueront d'une facturation au jeton à une facturation au résultat de la tâche. Les entreprises seront disposées à payer pour la correction réussie d'un bug ou la réalisation d'un audit de conformité légale, tandis que la puissance de calcul d'inférence de base deviendra aussi bon marché que l'électricité. Restructuration des infrastructures : au service de la « mémoire à long terme » D’ici 2026, les plateformes d’inférence prendront pleinement en charge les architectures à état, permettant aux agents d’IA de conserver des heures, voire des jours, de « mémoire de travail » et de contexte dans le cloud sans avoir à recharger les données à chaque fois.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
