El informe Malicious Use of Artificial Intelligence advierte que la AI está lista para ser explotado por delincuentes, criminales y terroristas. Aquellos que diseñan sistemas de IA necesitan hacer más para mitigar los posibles usos indebidos de su Tecnología, dijeron los autores. Y los gobiernos deben considerar nuevas leyes. El informe exige:

  • Los responsables de la formulación de políticas y los investigadores técnicos deben trabajar juntos para comprender y prepararse para el uso malicioso de la AI
  • Una constatación de que, aunque AI tiene muchas aplicaciones positivas, es una tecnología de doble uso y los investigadores e ingenieros de inteligencia artificial deben ser conscientes y proactivos sobre el potencial de su uso indebido.
  • Las mejores prácticas que pueden y deben aprenderse de disciplinas con un historial más prolongado de manejo de riesgos de uso dual, como la seguridad informática
  • Una expansión activa de la gama de partes interesadas involucradas, previniendo y mitigando los riesgos del uso malicioso de la IA

En declaraciones a la BBC, Shahar Avin, del Centro para el Estudio del Riesgo Existencial de la Universidad de Cambridge, explicó que el informe se concentraba en áreas de IA que estaban disponibles ahora o que probablemente estarían disponibles dentro de cinco años, en lugar de mirar hacia un futuro lejano.

'Cambiador de juego'

Particularmente preocupante es la nueva área de aprendizaje de refuerzo donde las IA se entrenan a niveles de inteligencia sobrehumanos sin ejemplos humanos u orientación. Describió algunos de los escenarios en los que la IA podría convertirse en "delincuente" en el futuro cercano:

  • Tecnologías como AlphaGo, una inteligencia artificial desarrollada por DeepMind de Google y capaz de burlar a los jugadores Go humanos, podrían ser utilizadas por los hackers para encontrar patrones en los datos y nuevas vulnerabilidades en el código
  • Una persona malintencionada podría comprar un dron y entrenarlo con un software de reconocimiento facial para apuntar a un individuo determinado
  • Los Bots podrían ser videos automatizados o "falsos" realistas para la manipulación política
  • Los hackers podrían usar la síntesis del habla para hacerse pasar por los objetivos

Miles Brundage, investigador en el Instituto Future of Humanity de la Universidad de Oxford, dijo: "AI alterará el panorama de riesgo para los ciudadanos, las organizaciones y los estados, ya sea que los criminales entrenen máquinas para hackear o 'phishing' en niveles humanos de rendimiento o eliminación de la privacidad vigilancia, creación de perfiles y represión: toda la gama de impactos en la seguridad es enorme".

"A menudo ocurre que los sistemas de IA no solo alcanzan niveles de rendimiento humanos, sino que lo superan significativamente". "Es preocupante, pero necesario, considerar las implicaciones de la piratería sobrehumana, la vigilancia, la persuasión y la identificación física de objetivos, así como las capacidades de inteligencia artificial que son subhumanas pero, sin embargo, mucho más escalables que el trabajo humano".

El Dr. Seán ÓHeigeartaigh, director ejecutivo del Centro para el Estudio del Riesgo Existencial y uno de los coautores, agregó: "La inteligencia artificial cambia las reglas del juego y este informe ha imaginado cómo sería el mundo en los próximos cinco a diez años".

¡No te pierdas nuestra pagina de Facebook!!