A Microsoft anunciou recentemente um novo plano de controle para seus agentes de IA, o que é bastante interessante. Eles querem gerenciar agentes de IA como "funcionários digitais", e não apenas como simples códigos. Isso soa como dar aos sistemas de IA uma "autorização de trabalho" e um "manual de gestão", permitindo que as empresas gerenciem a IA da mesma forma que gerenciam funcionários humanos. Este plano de controle, chamado Foundry, está atualmente em versão prévia pública e pode centralizar o gerenciamento de identidade, a aplicação de políticas, o monitoramento de status e a proteção de segurança necessários aos desenvolvedores de IA em um único portal. Assim como o sistema de RH de uma empresa pode gerenciar a integração, as permissões e a frequência dos funcionários, esse plano de controle também pode gerenciar a "integração" (cadastro), o "trabalho diário" (monitoramento) e as "normas de comportamento" (políticas) do agente de IA. Os maiores desafios para empresas que utilizam agentes de IA atualmente são segurança e implantação em larga escala. O Microsoft Agent 365 estende as ferramentas de gerenciamento do Microsoft 365 para sistemas de IA, permitindo que as empresas gerenciem agentes de IA em uma interface familiar e definam regras de segurança de entrada e saída de forma uniforme. É como dar a cada funcionário de IA um crachá de identificação exclusivo, mostrando o que ele faz diariamente e se ultrapassa os limites. Eles também lançaram um serviço de agentes gerenciados, permitindo que desenvolvedores executem agentes de IA criados com frameworks da Microsoft ou de terceiros diretamente em seus "escritórios na nuvem", sem precisar configurar seus próprios servidores. É como uma empresa contratar um "funcionário terceirizado", sem se preocupar com espaço físico e equipamentos. Além disso, o recurso de fluxo de trabalho multiagente permite que vários agentes de IA colaborem em tarefas complexas, como um processando dados, outro realizando análises e um terceiro redigindo relatórios. Também possibilita o design visual de processos, semelhante a um gerente de projetos atribuindo tarefas. O que é ainda mais interessante é que o agente de IA agora consegue se lembrar do contexto do que foi dito, então não há necessidade de explicar tudo do zero todas as vezes. Assim como quando colegas estão conversando, eles podem participar da conversa sem ter que repetir "os dados que mencionei da última vez". Em termos de segurança, a Microsoft integrou as ferramentas de segurança de código do GitHub com a proteção de segurança na nuvem. Quando os desenvolvedores estão escrevendo código, o assistente de IA (Copilot) pode apontar diretamente onde estão as vulnerabilidades, e a equipe de segurança também pode visualizar os problemas de código diretamente no sistema de segurança. É como se os gerentes de segurança e os desenvolvedores tivessem uma "lista de verificação compartilhada" e pudessem resolver problemas juntos. A combinação dessas funcionalidades equivale a equipar um sistema de IA com três componentes-chave: "reconhecimento de identidade", "monitoramento de comportamento" e "proteção de segurança". No futuro, usar IA poderá ser tão simples para as empresas quanto usar um software, eliminando as preocupações com riscos de segurança e a necessidade de "administradores de TI" atuarem como responsáveis pela manutenção de sistemas complexos. Em última análise, o cerne da questão é fazer da IA mais uma "ferramenta" do que uma "tecnologia". Assim como as pessoas usavam calculadoras antigamente, agora usam o Excel e, no futuro, poderão usar "funcionários digitais" para lidar com o trabalho diário. A iniciativa da Microsoft pode realmente mudar a forma como as empresas usam a IA, levando-a do laboratório para cenários de trabalho do mundo real.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.