J'ai souvent soutenu que les IA n'auront probablement pas de raisons impérieuses d'exterminer toute l'humanité, même si elles ne partagent pas nos valeurs. Point important : mes arguments n'ont rien à voir avec l'avantage comparatif. Je raisonne plutôt en termes de coûts et d'avantages d'un conflit par rapport à des accords négociés.
Voici un bref résumé de mon point de vue : Les guerres entre parties rationnelles surviennent dans trois circonstances principales : l’incertitude quant aux capacités de l’adversaire, les problèmes d’engagement et l’indivisibilité des biens. Rien ne permet de penser que l’une de ces conditions s’appliquera aux relations entre humains et IA.