Veintiséis expertos institucionales realizaron un taller sobre el riesgo de IA este mes en Oxford, Inglaterra. El informe basado en el resultado "uso de inteligencia artificial maliciosa"advierte que los abusos contra la IA por parte de estados delincuentes, criminales y terroristas ya son posibles y que el avión está listo. Cubre 100 páginas, identificamos el mundo digital, el mundo real y la política como tres áreas donde la IA puede ser más explotada. Incluye institutos de investigación sin fines de lucro "Open AI", grupo de derechos digitales "Electronic Frontier Foundation", Centro Nacional de Seguridad de Estados Unidos "New America Security Center".

Medidas preventivas

Los diseñadores de sistemas de IA deben hacer más esfuerzos que nunca para reducir la posibilidad de que se abuse de las tecnologías desarrolladas por ellos. Además, el informe también recomienda que los gobiernos deberían considerar nuevas leyes. Las principales recomendaciones del informe son las siguientes -.

  • La persona a cargo de la decisión política y la investigación técnica debe comprender y prepararse para el uso de la IA maliciosa en cooperación.
  • Aunque AI es útil en varias formas, es necesario tratar con la posibilidad de que los investigadores e ingenieros puedan ser abusados ​​por la técnica de espada de doble filo
  • Debes aprender las mejores prácticas del campo (por ejemplo, seguridad informática) que durante mucho tiempo han tratado con la tecnología que puede usarse tanto para lo bueno como para lo malo.
  • Amplíe agresivamente el alcance de las partes interesadas que intentan reducir y prevenir el uso malicioso del riesgo de IA

El Dr.

Shahar Abbin del Centro de Investigación de Riesgo de Extinción del Anillo Humano de la Universidad de Cambridge (CSER) dijo que enfocarse en IA actualmente disponible dentro de los próximos cinco años en lugar de en un futuro lejano, el informe.

"Las cosas que cambian"

La preocupación particular es el nuevo campo llamado "refuerzo de aprendizaje", hace que la IA adquiera un nivel de inteligencia sobrehumano sin instancias humanas ni guía. El Dr. Abin mostró algunos escenarios posibles sobre cómo la IA [VIDEO] se convertiría en "chico malo" en el futuro cercano.

  • Desarrollado por Deep Mind de Google, los hackers usan tecnologías como "Alpha Go" que superaron a los jugadores de golf humanos para leer patrones de datos y códigos de programación.
  • Una persona malintencionada compra un dron y ataca a un individuo específico con una tecnología de autenticación facial
  • Automatizamos la publicación de bots y controlamos políticamente la opinión pública al arrojar un video "falso" como si la gente real estuviese publicando
  • Combina y habla sobre cómo el hacker se dirige a los objetivos del individuo