如果你的合作型人工智能代理主动躲避你怎么办?尽管人们对人类和人工智能代理如何建设性地合作解决问题表现出浓厚的兴趣,但该领域的大多数研究都侧重于最终的任务奖励,而不是代理之间的实际合作。 在许多情况下,如果任务原则上可以由任何一个代理人单独完成(尽管会增加额外的负担,即任务不需要合作),那么任务奖励本身并不能表明代理人之间是否存在任何实际的合作。 在即将于 #AAAI2026 上发表的一篇论文中,Yochanite @biswas_2707(与 @PalodVardh12428 和 @sbhambr1 合作)开发了一种新的指标来分析人类和 AI 代理之间的相互依赖性,并使用该指标来评估几个为合作任务训练的 SOTA AI 代理所引发的合作。 我们发现,大多数声称经过强化学习训练以实现“零样本合作”的SOTA AI智能体实际上根本没有在AI和人类智能体之间建立起多少相互依赖性。 这使人们对目前普遍采用的训练人工智能代理以任务奖励为导向,并希望合作作为副产品出现的方法产生了质疑!
您可以在 https://t.co/UYUMbsyEND 阅读论文。
