E se o seu agente de IA cooperativo estiver ativamente evitando você? Apesar do grande interesse em ter agentes humanos e de IA trabalhando em conjunto de forma construtiva para resolver problemas, a maior parte dos trabalhos nessa área se concentra na recompensa final da tarefa, em vez de qualquer cooperação real entre os agentes. Em muitos casos, em que a tarefa pode, em princípio, ser concluída por qualquer um dos agentes individualmente, embora com um ônus adicional (ou seja, a tarefa não exige cooperação), a recompensa da tarefa em si não indica se há ou não cooperação real entre os agentes. Em um artigo a ser apresentado na #AAAI2026, o aluno da Yochan @biswas_2707 (com @PalodVardh12428 e @sbhambr1) desenvolve uma nova métrica para analisar as interdependências entre agentes humanos e de IA, e usa essa medida para avaliar a cooperação induzida por diversos agentes de IA de última geração treinados para tarefas cooperativas. Observamos que a maioria dos agentes de IA de última geração que afirmam ser treinados em aprendizado por reforço para "cooperação sem exemplos" na verdade não induzem muita interdependência entre a IA e os agentes humanos. Isso põe em questão a abordagem predominante de treinar agentes de IA com base na recompensa da tarefa, esperando que a cooperação surja como um efeito colateral!
Você pode ler o artigo em arxiv.org/abs/2502.06976
