Bajo el nombre de Project Maven, el Departamento de Defensa de EE. UU. ha estado ejecutando un #Proyecto #piloto sobre el uso de inteligencia artificial para la evaluación automática de imágenes de drones desde 2017. Por lo tanto, el ejército de los EE. UU. quiere dominar la gran cantidad de fotografías aéreas que utilizan los aviones no tripulados de combate y cuya evaluación, por parte de las fuerzas humanas es aparentemente demasiado complicada. Entre los partidarios del proyecto está el gigante de Internet de Estados Unidos Google.

Como informa Gizmodo, citando fuentes anónimas dentro de la compañía, algunos empleados están enojados, porque la tecnología de #inteligencia #artificial de la compañía se usa para fines militares. Un vocero de Google confirmó en el blog de los EE. UU. que la filial de Alphabet está proporcionando Tensorflow API al Departamento de Defensa. Estos a su vez se utilizan para crear aplicaciones de aprendizaje automático, que pueden detectar objetos automáticamente en fotos de Drones.

Google afirma que actualmente está trabajando internamente en políticas destinadas a gobernar el uso de la #tecnología de IA por parte de la empresa para fines #militares.

Pero eso también significa que, hasta ahora, no existen regulaciones correspondientes. El Departamento de Defensa de EE. UU. no ha comentado la participación de Google en Project Maven.

El ex CEO de Google, Eric Schmidt, se había pronunciado en el otoño de 2017 contra el uso de tecnologías corporativas por parte del ejército. Sin embargo, Schmidt preside la Junta Asesora de Innovación de la Defensa, un organismo asesor que explora las #innovaciones #tecnológicas de Silicon Valley para uso militar y asesora al Secretario de Defensa de EE.

UU. Los miembros de la junta incluyen al cofundador de Linkedin Reid Hoffman, la directora ejecutiva de Instagram, Marne Levine y el astrofísico y presentador de televisión Neil deGrasse Tyson.

Desde ataques con drones hasta vigilancia estatal

Los sistemas de inteligencia artificial también podrían estar involucrados en ataques físicos a la población. Por ejemplo, los investigadores piensan en los ataques aéreos con la ayuda de #drones #comerciales.

El software inteligente también podría ayudar a los terroristas y criminales a llevar a cabo ataques. Por lo tanto, se podrían desarrollar modelos que ayuden a los grupos pequeños a causar, tanto daño como sea posible, con los medios dados.

Al mismo tiempo, los #investigadores también advirtieron sobre cómo los #sistemas de IA podrían ser utilizados en la vigilancia estatal de la población. Como posible escenario de amenaza, los autores también mencionan el uso de sistemas de inteligencia artificial, para detectar y reprimir las opiniones disidentes.

¡No te pierdas nuestra pagina de Facebook!!