¿Qué ocurre si tu agente de IA cooperativo te está evitando activamente? A pesar del gran interés en que agentes humanos y de IA colaboren de forma constructiva para resolver problemas, la mayoría de los trabajos en este campo se centran en la recompensa final de la tarea en lugar de en una cooperación real entre los agentes. En muchos casos, cuando la tarea puede, en principio, ser completada por cualquiera de los agentes por separado, aunque con una carga adicional (es decir, la tarea no requiere cooperación), la recompensa de la tarea en sí misma no da ninguna indicación de si existe alguna cooperación real entre los agentes. En un artículo que se presentará en #AAAI2026, Yochanite @biswas_2707 (con @PalodVardh12428 y @sbhambr1) desarrolla una nueva métrica para analizar las interdependencias entre agentes humanos y de IA, y utiliza esa medida para evaluar la cooperación inducida por varios agentes de IA de última generación entrenados para tareas cooperativas. Observamos que la mayoría de los agentes de IA de última generación que afirman estar entrenados mediante aprendizaje por refuerzo para la "cooperación sin ejemplos" en realidad no inducen mucha interdependencia entre la IA y los agentes humanos. Esto pone en entredicho el enfoque predominante de entrenar a los agentes de IA en función de la recompensa por la tarea, ¡esperando que la cooperación surja como efecto secundario!
Puedes leer el artículo enarxiv.org/abs/2502.06976D
