Que se passe-t-il si votre agent IA coopératif vous évite activement ? Malgré un intérêt considérable pour la collaboration constructive entre agents humains et IA afin de résoudre des problèmes, la plupart des travaux dans ce domaine se concentrent sur la récompense finale liée à la tâche plutôt que sur une véritable coopération entre les agents. Dans de nombreux cas, où la tâche peut, en principe, être accomplie par l'un ou l'autre agent seul, même si cela implique une charge supplémentaire (c'est-à-dire que la tâche ne nécessite pas de coopération), la récompense elle-même ne donne aucune indication sur l'existence d'une quelconque coopération entre les agents. Dans un article qui sera présenté à #AAAI2026, Yochanite @biswas_2707 (avec @PalodVardh12428 et @sbhambr1) développe une nouvelle métrique pour analyser les interdépendances entre les agents humains et les agents d'IA, et utilise cette mesure pour évaluer la coopération induite par plusieurs agents d'IA SOTA entraînés pour des tâches coopératives. Nous constatons que la plupart des agents d'IA de pointe qui prétendent être entraînés par RL pour la « coopération zéro-shot » n'induisent en réalité que très peu d'interdépendance entre l'IA et les agents humains. Cela remet en question l'approche courante qui consiste à entraîner les agents d'IA sur la récompense des tâches, en espérant que la coopération émerge comme un effet secondaire !
Vous pouvez lire l'articlearxiv.org/abs/2502.06976 https://t.co/UYUMbsyEND
