私はこれまで何度も、AIが人間全員を殺すほどの説得力のある理由を持つ可能性は低いと主張してきました。たとえAIが人間の価値観を共有していなくてもです。重要なのは、私の主張は比較優位とは全く関係がないということです。むしろ、私は紛争解決と交渉による解決のコストとベネフィットという観点から議論しています。
私の見解を簡単にまとめると、 合理的な当事者間の戦争は、主に3つの状況で発生します。それは、相手の能力に関する不確実性、コミットメントの問題、そして財の不可分性です。これらの条件のいずれも、人間とAIの関係に当てはまると考える十分な根拠はありません。