Ce nouvel article, intitulé « État de l'IA agentique : édition du fondateur », publié par MMC, une plateforme qui recommande vivement les agents d'IA, fournit non seulement des données et une analyse solides des problèmes, mais propose également des solutions réalisables. 2025 est largement considérée comme l'année des agents IA, l'« IA agentielle » gagnant une popularité fulgurante et de nouveaux produits émergeant en masse : recherche approfondie, agents de codage, applications web, applications informatiques… Bien sûr, les agents suscitent de nombreuses controverses. Certains les jugent inutiles, tandis que d'autres les considèrent comme omnipotents. Ces deux points de vue sont compréhensibles ; tout est subjectif et chaque cas d'utilisation est différent. Par exemple, j'apprécie particulièrement la programmation d'agents ; ils résolvent réellement des problèmes. Mais ce type de débat devient bien plus convaincant lorsqu'il est étayé par des données. Par exemple, ces agents sont-ils réellement utilisés dans les entreprises ? MMC a mené des entretiens approfondis avec les fondateurs de plus de 30 startups développant des agents d'IA et avec plus de 40 utilisateurs réels en entreprise, et a rédigé ce rapport : « L'état actuel de l'IA agentique : édition des fondateurs ». [1] Ce qui limite réellement les agents d’IA n’est peut-être pas que l’IA ne soit pas assez intelligente. La plupart des gens pensent que le plus grand défi pour les agents actuellement est que « l'IA n'est pas assez intelligente », « les illusions sont trop fortes » ou « il est trop difficile de l'intégrer au système actuel ». Ce sont effectivement des problèmes, mais étonnamment, les fondateurs ne les classent même pas parmi les trois premiers. D’après l’enquête, les trois principaux problèmes rencontrés lors du déploiement d’agents d’IA sont : 1. Intégration des flux de travail et interaction homme-machine (60 %) 2. Résistance des employés et facteurs non techniques (représentant 50 %) 3. Confidentialité et sécurité des données (50 %) Autrement dit, les principaux obstacles sont d'ordre humain et liés aux processus. 1. « Comment utiliser ceci ? » (Intégration du flux de travail) Il s'agit du plus grand défi, représentant 60 %. Aussi puissant soit un agent d'IA, s'il s'agit d'une application qui doit être ouverte séparément, obligeant les employés à ouvrir une nouvelle fenêtre en plus de leur logiciel de travail habituel (tel que DingTalk, Lark ou Salesforce) pour la commander, son taux d'utilisation est voué à être faible. Une intégration réussie consiste à intégrer l'IA aux flux de travail existants des employés. Par exemple, lorsqu'un vendeur met à jour le statut d'un client dans le CRM, l'agent IA apparaît automatiquement et indique : « J'ai résumé le compte rendu de la réunion pour vous. » Il ne s'agit plus seulement d'un problème technique ; les entreprises doivent changer de mentalité. Elles doivent d'abord se demander : « Comment adapter mon flux de travail existant pour intégrer un agent d'IA ? » C'est souvent bien plus complexe que d'acheter un agent d'IA. 2. « Est-ce que ça va me voler mon emploi ? » (Résistance des employés) C’est la crise de confiance évoquée par 50 % des fondateurs. Force est de constater une réalité : dans les entreprises, la collaboration entre les humains et l'IA est actuellement majoritairement désagréable. L'un de ces types est la « dépendance excessive » : les employés confient tout le travail à l'IA sans le vérifier eux-mêmes, ce qui entraîne des erreurs de la part de l'IA, comme par exemple donner un prix incorrect au client, ce qui peut conduire à une catastrophe. L'un de ces types de scepticisme est le « scepticisme excessif » : les employés n'ont aucune confiance en l'IA et doivent vérifier eux-mêmes chaque étape de son fonctionnement. Cela non seulement nuit à l'efficacité, mais augmente également la charge de travail. Plus fondamentalement, il y a la crainte d'être remplacé par l'IA. Cela rend les employés hésitants à l'utiliser, ou bien ils se montrent extérieurement dociles mais intérieurement réfractaires, refusant de coopérer. 3. « Est-il sûr de transmettre mes données à l’IA ? » (Confidentialité des données) Il s'agit également d'une préoccupation majeure mentionnée par 50 % des fondateurs. Ce problème est particulièrement aigu dans des secteurs comme la finance et la santé. Les entreprises s'inquiètent : « Si je confie mes états financiers internes et les dossiers médicaux de mes clients à cet agent d'IA pour analyse, ces données serviront-elles à entraîner d'autres modèles ? Y aura-t-il des fuites ? » Certaines de ces préoccupations sont justifiées, comme l'exigence de certifications de conformité telles que le RGPD et l'ISO 27001, tandis que d'autres sont purement subjectives. Quelle qu'en soit la raison, elles expliquent toutes la réticence des entreprises à déployer de tels systèmes. [2] Un agent d'IA performant : haute précision et grande autonomie Compte tenu de toutes ces difficultés, quelles sont les performances réelles des agents d'IA qui obtiennent de bons résultats ? L'un des principaux enseignements de ce rapport réside dans son approche de la quantification des agents d'IA actuels selon deux dimensions : la précision et l'autonomie. - Précision : Quel pourcentage du travail effectué par l'IA est correct et acceptable pour les humains ? - Autonomie : Dans quelle mesure l'IA fonctionne-t-elle sans intervention humaine ? L'idéal serait d'obtenir à la fois une grande précision et une grande autonomie. Mais en réalité, plus de 90 % des startups spécialisées dans les agents affirment que leurs solutions atteignent un taux de précision supérieur à 70 %. Par conséquent, MMC divise les agents en trois catégories (les agents ayant une faible précision et une faible autonomie ne méritent pas d'exister) : 1. Haute précision et grande autonomie : Idéal pour les tâches à faible risque, répétitives et facilement vérifiables. Par exemple, l'étiquetage automatique de grands volumes d'e-mails marketing. Même si l'IA commet 30 % d'erreurs d'étiquetage, elle a déjà traité 1 000 e-mails ; il vous suffit de corriger manuellement les erreurs manifestes. Au final, l'efficacité reste bien supérieure au travail manuel. 2. Haute précision, faible autonomie : Elle est adaptée aux domaines à haut risque et à forte valeur ajoutée, comme le secteur médical. Par exemple, l'IA peut contribuer à la rédaction des rapports de recherche pour les essais cliniques. Elle doit garantir un taux d'exactitude supérieur à 90 %, mais des experts humains doivent effectuer des vérifications rigoureuses à chaque étape (faible autonomie). Elle joue le rôle d'un « super assistant », et non celui d'un « décideur ». 3. Haute précision + grande autonomie : On peut considérer cela comme le juste milieu idéal, l'objectif que tous s'efforcent d'atteindre. Ce modèle convient aux domaines où le déploiement de l'IA est relativement mature ou lorsque les limites des règles sont clairement définies, comme le service client, la cybersécurité ou la conformité financière. Dans ces scénarios, les agents d'IA sont déjà suffisamment fiables, atteignant une précision et une autonomie de 80 à 90 %, et peuvent bénéficier d'une grande autonomie pour gérer des tâches de bout en bout. Le rapport indique que le secret réside généralement dans la combinaison de grands modèles de langage probabilistes avec des méthodes d'IA plus déterministes afin d'améliorer la précision et, par conséquent, d'accroître encore l'autonomie. [3] Les entreprises ont commencé à payer les agents. Lorsqu'on aborde l'application pratique des agents d'IA, la question de la tarification est incontournable, car miser sur la dépense inconsidérée n'est pas viable. La bonne nouvelle, c'est que les entreprises commencent réellement à payer pour cela. Le rapport a révélé que 62 % des startups spécialisées dans les agents IA ont déjà reçu le budget alloué par leur entreprise à leur secteur d'activité. C'est un signe très positif. Beaucoup ignorent peut-être que les grandes entreprises disposent de deux types de budgets : le « budget innovation », un petit fonds destiné aux expérimentations. Il ne s'agit pas d'une somme importante, et il est clôturé une fois épuisé. Chacun souhaite simplement tenter de nouvelles expériences. Le « budget par secteur d'activité » désigne les dépenses de chaque département (comme le département des ventes, le département marketing et le département financier) nécessaires au fonctionnement de leur activité principale. Lorsque l'agent IA commence à utiliser le « budget métier », cela signifie qu'il est passé d'un gadget superflu à un outil de productivité capable de m'aider à accomplir mes tâches. La mauvaise nouvelle, c'est que nous n'avons pas encore trouvé le meilleur modèle de tarification. Bien que tout le monde reconnaisse la valeur de cet objet, comment fixer son prix ? Le rapport montre que la question est encore débattue, et que deux approches principales sont envisagées : 1. Tarification hybride (23 %) : Par exemple, « frais de service de base + paiement à l’utilisation pour tout excédent ». 2. Par tâche (23%) : L'IA vous aide à accomplir une tâche (comme l'émission d'une facture) et collecte l'argent une seule fois. Le modèle de rémunération à la performance (OPP), le plus attendu, n'est actuellement utilisé que par 3 % des entreprises. Pourquoi ? Parce que c'est trop difficile. Par exemple, un « assistant IA de vente » aide l'équipe commerciale à conclure une affaire importante. Le mérite devrait-il revenir à l'équipe commerciale à hauteur de 80 %, ou à l'IA à hauteur de 20 % ? Comment cela est-il mesuré ? Si l'IA ne contribue pas à la réussite de l'affaire, l'entreprise peut-elle se dispenser de la rémunérer ? Il est impossible de le calculer précisément. Par conséquent, l'approche la plus réaliste à l'heure actuelle consiste à rémunérer en fonction des efforts fournis plutôt que des résultats obtenus. [4] L'élément le plus important : Stratégie de déploiement réussie des agents d'IA Étant donné la difficulté de mettre en œuvre des agents d'IA, comment les entreprises d'agents performantes parviennent-elles à convaincre leurs clients entreprises ? Les entretiens menés par MMC ont permis de recueillir un ensemble d'expériences de mise en œuvre très concrètes : Conseil n° 1 : « Pensez petit » Le rapport résume une stratégie de mise en œuvre très pragmatique : penser petit. Oubliez ces grands récits de « bouleversement total des industries » et de « remplacement complet des humains ». Les agents d'IA performants partent souvent d'un angle très restreint et très spécifique : - Point de départ : Choisissez une tâche à faible risque et à récompense modérée. - Conseil : Choisissez une tâche que les employés détestent le plus. Par exemple, la saisie manuelle des données clients est la tâche la plus pénible pour l’équipe commerciale, ou la vérification des factures pour l’équipe financière. - Positionnement : Ne dites jamais que vous êtes un « remplaçant », dites que vous êtes un « copilote ». Votre objectif n'est pas d'amener le patron à licencier les employés, mais de les libérer des tâches répétitives, ennuyeuses et indésirables. Lorsque les employés découvrent que cette IA leur fait réellement gagner 5 heures par semaine en évitant de remplir des formulaires, la graine de la confiance est enfin semée. Secret n°2 : Se tenir la main Les agents d'IA actuels sont loin d'être prêts à l'emploi. Les entreprises n'achètent pas seulement un logiciel, mais aussi une suite complète de services d'assistance. Toutes les startups à succès utilisent le modèle de « Frontline Deployment Engineer (FDE) ». Ces personnes sont à la fois programmeurs et consultants ; elles se rendent directement chez le client et l’aident à optimiser ses processus, à nettoyer ses données et à paramétrer l’IA progressivement. Dans le même temps, l'interface d'interaction homme-machine doit atteindre les « 3E » : 1. Éducation : L'IA devrait être capable d'enseigner de manière proactive aux utilisateurs « ce que je peux faire et comment vous devriez m'utiliser ». 2. Divertissement : Interactif et amusant. 3. Gestion des attentes : L'IA doit être honnête avec les utilisateurs quant à « ce que je ne peux pas faire » et éviter toute exagération. Secret n° 3 : Le positionnement détermine la vie ou la mort Au final, la façon dont vous « dites » qui vous êtes est peut-être plus importante que qui vous « êtes ». - C'est « copilote », pas « remplaçant » : * Gardez toujours une attitude humble. Votre produit est un « copilote », conçu pour « augmenter » les capacités des employés, et non pour les « remplacer ». Même si votre technologie pouvait réellement remplacer 80 % de la main-d’œuvre, ne le dites jamais. - Traiter les gens différemment selon leur statut : Dans un secteur conservateur comme celui de la santé, il vaut mieux parler moins d’« intelligence artificielle » et plus d’« automatisation » et d’« amélioration de l’efficacité ». Dans un secteur aussi novateur que la finance, il faut faire la promotion de « l'IA agente » pour se donner une image de pointe. - Le retour sur investissement doit être précis : Pour les processus matures, dites « permet d'économiser XX heures » ou « réduit les coûts de XX % ». * Pour les nouvelles fonctionnalités créées par l'IA (telles que les pages Web personnalisées), intégrez-les à vos outils existants, par exemple : « Elle peut augmenter votre taux de conversion Google Ads de 20 % ». 【enfin】 Honnêtement, en début d'année, j'étais sceptique quant aux agents IA. Mais depuis que j'utilise Claude Code, je suis devenu un fervent partisan et un grand défenseur de ces agents, et je suis de près l'évolution de ce domaine. Ce rapport est d'excellente qualité, notamment les points qui m'ont le plus impressionné : Le facteur le plus important déterminant le succès ou l'échec du déploiement d'un agent d'IA n'est plus la robustesse du modèle, mais son intégration aux processus internes de l'entreprise, la manière dont il obtient les données relatives aux déplacements des employés et la façon dont il prouve sa valeur. De plus, il est tout à fait scientifique de quantifier et d'évaluer les agents d'IA selon deux dimensions : la précision et l'initiative. Actuellement, nombre d'agents d'IA peuvent faire preuve d'une grande initiative mais d'une précision insuffisante, ou inversement. Pour être un bon agent, il est essentiel qu'il agisse comme un humain doté d'une intelligence émotionnelle élevée, qu'il comprenne vos besoins avant même que vous ne les exprimiez et qu'il agisse discrètement pour vous.
Nous vousmmc.vc/research/state…'artbaoyu.io/translations/s…intégralité : https://t.co/F6NJJU0tOI Traduction : https://t.co/b4YslzEU2I

