A menudo he sostenido que es probable que las IA no tengan razones de peso para exterminar a toda la humanidad, incluso si no comparten nuestros valores. Es importante destacar que mis argumentos no se basan en la ventaja comparativa. En cambio, los argumento en términos de los costos y beneficios del conflicto frente a las soluciones negociadas.
Un breve resumen de mi punto de vista: Las guerras entre partes racionales se producen principalmente en tres circunstancias: incertidumbre sobre las capacidades del oponente, problemas de compromiso e indivisibilidad de los bienes. No hay razones fundadas para pensar que alguna de estas condiciones se aplique a las relaciones entre humanos e IA.