협력적인 AI 에이전트가 당신을 적극적으로 피한다면 어떨까요? 인간과 AI 에이전트가 건설적으로 협력하여 문제를 해결하는 데 상당한 관심이 있음에도 불구하고, 이 분야의 대부분의 연구는 에이전트 간의 실질적인 협력보다는 최종적인 작업 보상에 초점을 맞춥니다. 원칙적으로 작업이 추가적인 부담을 지니더라도 두 에이전트 중 한 명이 단독으로 완료할 수 있는 경우(즉, 작업에 협력이 필요하지 않은 경우), 작업 보상 자체는 에이전트 간에 실제 협력이 있는지 여부를 나타내지 않습니다. #AAAI2026에서 발표될 논문에서 Yochanite @biswas_2707(@PalodVardh12428 및 @sbhambr1과 함께)은 인간과 AI 에이전트 간의 상호 의존성을 분석하는 새로운 지표를 개발하고, 이 지표를 사용하여 협력 작업을 위해 훈련된 여러 SOTA AI 에이전트가 유도한 협력을 평가합니다. "제로샷 협력"을 위해 RL 훈련을 받았다고 주장하는 대부분의 SOTA AI 에이전트는 실제로 AI와 인간 에이전트 사이에 상호 의존성을 거의 유도하지 않는다는 것을 알 수 있습니다. 이는 AI 에이전트를 작업 보상으로 훈련시키고 협력이 부작용으로 나타나기를 바라는 일반적인 접근 방식에 의문을 제기합니다!
https://t.co/UYUMbsyEND에서 논문을 읽을 수 있습니다.
