저는 AI가 우리의 가치관을 공유하지 않더라도 모든 인간을 죽일 만한 설득력 있는 이유는 없을 것이라고 자주 주장해 왔습니다. 중요한 것은 제 주장이 비교 우위와는 전혀 관련이 없다는 것입니다. 오히려 저는 갈등과 협상을 통한 합의의 비용과 편익이라는 관점에서 주장합니다.
내 견해를 간략하게 요약하면 다음과 같습니다. 합리적인 당사자 간의 전쟁은 세 가지 주요 상황에서 발생합니다. 상대의 역량에 대한 불확실성, 약속 문제, 그리고 재화의 불가분성입니다. 이러한 조건들이 인간과 AI의 관계에 적용될 것이라고 생각할 만한 타당한 근거는 없습니다.