もし協力的なAIエージェントがあなたを避けようとしたらどうしますか?人間とAIエージェントが建設的にチームを組んで問題を解決することに大きな関心が寄せられているにもかかわらず、この分野の研究のほとんどは、エージェント間の実際の協力よりも、最終的なタスク報酬に焦点を当てています。 多くの場合、タスクは、追加の負担はあるものの、原理的にはどちらかのエージェントだけで完了できます (つまり、タスクは協力を必要としません)。タスク報酬自体は、エージェント間に実際の協力があるかどうかを示すものではありません。 #AAAI2026 で発表される論文で、Yochanite @biswas_2707 (@PalodVardh12428 および @sbhambr1 と共同) は、人間と AI エージェント間の相互依存性を分析するための新しい指標を開発し、その指標を使用して、協力タスク用にトレーニングされた複数の SOTA AI エージェントによって誘発される協力を評価します。 「ゼロショット協力」のために RL トレーニングされていると主張するほとんどの SOTA AI エージェントは、実際には AI と人間のエージェントの間にほとんど相互依存性を誘発していないことがわかります。 これは、タスク報酬に基づいて AI エージェントをトレーニングし、副作用として協力が現れることを期待するという一般的なアプローチに疑問を投げかけます。
論文はhttps://t.co/UYUMbsyENDで読むことができます。
