Microsoft anunció recientemente un nuevo plano de control para sus agentes de IA, lo cual resulta bastante interesante. Quieren gestionar a los agentes de IA como "empleados digitales", no solo como simple código. Esto suena como otorgar a los sistemas de IA un "permiso de trabajo" y un "manual de gestión", permitiendo a las empresas gestionar la IA del mismo modo que gestionan a los empleados humanos. Este plano de control, denominado Foundry, se encuentra actualmente en fase de vista previa pública y puede centralizar en un único portal la gestión de identidades, la aplicación de políticas, la monitorización del estado y la protección de seguridad que necesitan los desarrolladores de IA. Del mismo modo que el sistema de RRHH de una empresa puede gestionar la incorporación de empleados, los permisos y la asistencia, este plano de control también puede gestionar la "incorporación" (registro), el "trabajo diario" (monitorización) y las "normas de comportamiento" (políticas) del agente de IA. Los principales desafíos para las empresas que utilizan agentes de IA actualmente son la seguridad y la implementación a gran escala. Microsoft Agent 365 extiende las herramientas de administración de Microsoft 365 a los sistemas de IA, lo que permite a las empresas administrar los agentes de IA mediante una interfaz familiar y establecer reglas de seguridad de entrada y salida uniformes. Es como dotar a cada empleado de IA de una identificación única que muestra sus actividades diarias y si sobrepasa los límites establecidos. También lanzaron un servicio de agentes gestionados, que permite a los desarrolladores ejecutar agentes de IA creados con frameworks de Microsoft o de terceros directamente en sus "oficinas en la nube" sin necesidad de configurar sus propios servidores. Es como si una empresa contratara a un "empleado externo", sin tener que preocuparse por el espacio ni el equipo de oficina. Además, la función de flujo de trabajo multiagente permite que varios agentes de IA colaboren en tareas complejas, como que uno procese datos, otro realice análisis y un tercero redacte informes. También permite el diseño visual de procesos, de forma similar a como un gestor de proyectos asigna tareas. Lo más útil es que el agente de IA ahora puede recordar el contexto de lo que se dice, por lo que no es necesario explicarlo desde el principio cada vez. Igual que cuando los compañeros conversan, pueden participar sin tener que repetir «los datos que mencioné la última vez». En materia de seguridad, Microsoft ha integrado las herramientas de seguridad de código de GitHub con la protección de seguridad en la nube. Mientras los desarrolladores escriben código, el asistente de IA (Copilot) puede señalar directamente las vulnerabilidades, y el equipo de seguridad también puede visualizar los problemas de código directamente en el sistema de seguridad. Es como si los responsables de seguridad y los desarrolladores tuvieran una lista de verificación compartida y pudieran resolver problemas en conjunto. La combinación de estas características equivale a dotar a un sistema de IA de tres componentes clave: "reconocimiento de identidad", "monitorización del comportamiento" y "protección de seguridad". En el futuro, para las empresas, usar IA podría ser tan sencillo como usar software, eliminando las preocupaciones sobre los riesgos de seguridad y la necesidad de que los administradores de TI se encarguen del mantenimiento de sistemas complejos. En definitiva, la clave está en convertir la IA más en una herramienta que en una tecnología. Así como antes se usaban calculadoras, ahora se usa Excel, y en el futuro quizá se utilicen asistentes virtuales para gestionar las tareas cotidianas. La iniciativa de Microsoft podría estar transformando la forma en que las empresas utilizan la IA, llevándola del laboratorio a entornos laborales reales.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.