El avance en Inteligencia Artificial (IA) es imparable, en particular cuando se trata de su uso en guerras. Durante la administración de Obama el número de soldados en territorios extranjeros se redujo a extremo siendo sustituído por drones no tripulados que cumplían efectivamente su objetivo.
Estos drones eran manejados a distancia cual si se tratara de un videojuego. Personajes como Stephen Hawkins en su momento, R. Kurzweil y E. Musk se preocupan por el avance tecnológico y la negativa de algunas empreas para no usarla con fines bélicos. Así mismo, existen empresas privadas más avanzadas en tecnología que los mismos militares dirigidos por los gobiernos de países desarrollados.
La tecnología conforme evoluciona se hace más accesible en precio, lo que pone a armas peligrosas a ser potencialmente dirigidas por humanos, soldados y terroristas quienes darían indicaciones a una inteligencia artificial bélica. De acuerdo a algunos pilotajes en simuladores de vuelo de ataque se reporta que una IA ya es capaz de vencer a un piloto humano y esto a penas va comenzando.
Se predice que pronto podrían existir drones armados que basados en identificación facial pudieran exterminar personas con ciertas características, teniendo así el potencial de causar un etnocidio. Debido a lo anterior, se crea una ONG que busca la regulación del avance de IA dirigiendo su objetivo a fines benéficos. El Instituto del Futuro de la Vida logró reunir a empresarios, científicios, economistas, filósofos y políticos para definir escenarios distópicos que les permitirán crear una lista de principios que pudieran servir para regular la IA. Finalmente se crea una lista de 23 principios que definen temas de investigación, valores y que promueven la colaboración entre investigadores y legisladores.
El 30 de agosto del 2018 el estado de California, en donde se encuentra uno de los centros de desarrollo más imporantes, Silicon Valley, adopta en su legislación estos principios que no hace mucho parecían sacados de alguna película.