Imagen vía Soeren Stache/EPA.
Síguenos en Facebook para saber qué pasa en el mundo.Un general estadounidense de alto rango advirtió a legisladores sobre el peligro que representa entregar a los militares armas autónomas, sobre las cuales puedan perder el control e hizo un llamado a mantener en su lugar las "reglas éticas de la guerra".En una audiencia el pasado martes con el Comité de Fuerzas Armadas del Senado de los Estados Unidos, el general Paul Selva contestó una pregunta del senador Gary Peters en referencia a las armas autónomas: los militares deben mantener "las reglas éticas de la guerra en su lugar para que no desatemos en la humanidad una serie de robots que no sabemos cómo controlar", según informó el portal de noticias con sede en Washington The Hill.
Publicidad
El general, quien posee el segundo grado más alto de toda la milicia estadounidense, agregó: "No creo que sea razonable para nosotros poner a los robots a cargo de la decisión sobre tomar o no una vida".Peters alegó que fuerzas enemigas no dudarían en usar esta tecnología en su contra, por encima de cualquier ética: "Nuestros adversarios no se enfrentan regularmente los mismos debates morales y éticos que encaramos cada uno de nuestros días".Selva aclaró que el hecho de no usar la misma tecnología no los exenta de poder desarrollar herramientas para defenderse de éstas. "No significa que no desarrollemos ese tipo de tecnologías y potencialmente encontrar sus vulnerabilidades y explotarlas."¿Estamos listos para la vida sexual con robots de Inteligencia Artificial? Leer más aquí.
El año pasado, el famoso astrofísico Stephen Hawking y el fundador de Tesla, Elon Musk, advirtieron en una carta abierta sobre los peligros de utilizar inteligencia artificial en el control de armas. "Iniciar un proyecto de armas controladas bajo inteligencia artificial es mala idea, y debe ser prohibida con un bloqueo en armas autónomas del control humano".Sigue a VICE News En Español en Twitter: @VICENewsEsRusia presenta su nueva serie de Kalashnikov con Inteligencia Artificial. Leer más aquí.