如果你的合作型人工智慧代理商主動躲避你怎麼辦?儘管人們對人類和人工智慧代理如何建設性地合作解決問題表現出濃厚的興趣,但該領域的大多數研究都專注於最終的任務獎勵,而不是代理之間的實際合作。 在許多情況下,如果任務原則上可以由任何一個代理人單獨完成(儘管會增加額外的負擔,即任務不需要合作),那麼任務獎勵本身並不能表明代理人之間是否存在任何實際的合作。 在即將於 #AAAI2026 上發表的一篇論文中,Yochanite @biswas_2707(與 @PalodVardh12428 和 @sbhambr1 合作)開發了一種新的指標來分析人類和 AI 代理之間的相互依賴性,並使用該指標來評估幾個為 AI 任務訓練的 SOTA 代理訓練所引發的合作。 我們發現,大多數聲稱經過強化學習訓練以實現「零樣本合作」的SOTA AI智能體實際上根本沒有在AI和人類智能體之間建立起多少相互依賴性。 這使人們對目前普遍採用的訓練人工智慧代理以任務獎勵為導向,並希望合作作為副產品出現的方法產生了質疑!
您可以在 https://t.co/UYUMbsyEND 閱讀論文。
