Microsoft a récemment annoncé un nouveau plan de contrôle pour ses agents d'IA, ce qui est plutôt intéressant. Ils souhaitent gérer les agents d'IA comme des « employés numériques », et non comme de simples programmes informatiques. Cela revient à donner aux systèmes d'IA un « permis de travail » et un « manuel de gestion », permettant ainsi aux entreprises de gérer l'IA de la même manière qu'elles gèrent leurs employés humains. Cette plateforme de contrôle, appelée Foundry, est actuellement en version préliminaire publique et permet de centraliser dans un seul portail la gestion des identités, l'application des politiques, la surveillance de l'état et la protection de la sécurité nécessaires aux développeurs d'IA. De même que le système RH d'une entreprise peut gérer l'intégration, les autorisations et la présence des employés, ce plan de contrôle peut également gérer l'« intégration » (inscription), le « travail quotidien » (surveillance) et les « normes comportementales » (politiques) de l'agent IA. Les principaux défis rencontrés par les entreprises utilisant des agents d'IA sont actuellement la sécurité et le déploiement à grande échelle. Microsoft Agent 365 étend les outils de gestion Microsoft 365 existants aux systèmes d'IA, permettant aux entreprises de gérer leurs agents d'IA via une interface familière et de définir uniformément les règles de sécurité des entrées et sorties. C'est comme attribuer à chaque agent d'IA une carte d'identité unique, indiquant ses activités quotidiennes et permettant de vérifier s'il dépasse les limites autorisées. Ils ont également lancé un service d'agents gérés, permettant aux développeurs d'exécuter des agents d'IA conçus avec des frameworks Microsoft ou tiers directement dans leurs « bureaux cloud », sans avoir à configurer leurs propres serveurs. C'est comme si une entreprise embauchait un « employé externe », sans se soucier des locaux et du matériel. De plus, la fonctionnalité de flux de travail multi-agents permet à plusieurs agents d'IA de collaborer sur des tâches complexes : l'un traite des données, un autre effectue des analyses et un troisième rédige des rapports. Elle permet également une conception visuelle des processus, à l'instar d'un chef de projet attribuant des tâches. Plus ingénieux encore, l'agent IA peut désormais se souvenir du contexte des propos tenus, évitant ainsi de devoir tout réexpliquer à chaque fois. À l'instar des collègues qui discutent, il peut participer à la conversation sans avoir à répéter « les données dont j'ai parlé la dernière fois ». En matière de sécurité, Microsoft a intégré les outils de sécurité du code de GitHub à la protection du cloud. Lors de la programmation, l'assistant IA (Copilot) peut identifier directement les vulnérabilités, et l'équipe de sécurité peut également visualiser les problèmes de code directement dans le système. Ainsi, responsables de la sécurité et développeurs disposent d'une liste de contrôle partagée pour résoudre les problèmes ensemble. L'ensemble de ces fonctionnalités donne l'impression de doter un système d'IA de trois composantes clés : la « reconnaissance d'identité », la « surveillance des comportements » et la « protection de la sécurité ». À l'avenir, l'utilisation de l'IA pourrait être aussi simple pour les entreprises que l'utilisation de logiciels, éliminant ainsi les préoccupations liées aux risques de sécurité et la nécessité d'agir comme « administrateurs informatiques » pour maintenir des systèmes complexes. Au fond, l'enjeu est de faire de l'IA un outil plutôt qu'une technologie. De même qu'on utilisait autrefois des calculatrices, on utilise aujourd'hui Excel, et demain, on pourrait bien avoir recours à des « employés numériques » pour gérer les tâches quotidiennes. La démarche de Microsoft pourrait bien transformer la manière dont les entreprises utilisent l'IA, en la faisant passer du laboratoire au monde professionnel.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.