La inteligencia artificial es una herramienta fantástica cuando se utiliza para la salud, la tecnología o la astrofísica. Pero en manos de delincuentes, el uso que se le puede dar es nefasto. Y lo peor no siempre está donde uno piensa. Vamos a ver algunos de los peligros de la Inteligencia Artificial.
Hackear coches autónomos o drones militares, ataques de phishing dirigidos, infoxicación fabricada o manipulación de los mercados financieros… «A medida que las capacidades de las tecnologías basadas en la IA se expanden, también lo hace su potencial de explotación criminal».
Los delitos más aterradores, como los «ladrones robot» que irrumpen en tu piso, no son necesariamente los más peligrosos, ya que se pueden frustrar fácilmente y afectan a pocas personas a la vez. Por el contrario, la información falsa generada por los bots tiene la capacidad de arruinar la reputación de una persona conocida o de chantajear. Difíciles de combatir, estas falsificaciones pueden causar considerables daños económicos y sociales.
Inteligencia artificial: graves amenazas
Vídeos falsos: suplantar a alguien haciéndole decir o hacer cosas que nunca ha dicho o hecho, para solicitar acceso a datos seguros, manipular la opinión pública o dañar la reputación de alguien… Estos vídeos falsos son casi indetectables.
Hackeo de coches autónomos: hacerse con los mandos de un vehículo autónomo para utilizarlo como arma (por ejemplo, para perpetrar un atentado terrorista, provocar un accidente, etc.).
Phishing personalizado: generar mensajes muy personalizados y automatizados para aumentar la eficacia del phishing para recoger información segura o instalar malware.
Hackeo de los sistemas controlados por la IA: perturbación de las infraestructuras provocando, por ejemplo, cortes de electricidad generalizados, congestiones de tráfico o interrupción de la logística alimentaria.
Chantaje a gran escala: recopilación de datos personales para enviar mensajes de amenaza automatizados. La IA también podría utilizarse para generar pruebas falsas (por ejemplo, la «sextorsión»).
Noticias falsas escritas por la IA: redacción de artículos de propaganda que parecen ser emitidos por una fuente fiable. La IA también podría utilizarse para generar múltiples versiones de un contenido concreto para aumentar su visibilidad y credibilidad.
Deepfake puede utilizarse para intercambiar caras o hacer que una persona dé un discurso falso. BuzzFeedVideo, YouTube
Inteligencia artificial: amenazas de gravedad media
Robots militares: tomar el control de robots o armas con fines delictivos. Una amenaza potencialmente muy peligrosa pero difícil de llevar a cabo, ya que el hardware militar suele estar muy protegido.
Estafas: venta de servicios fraudulentos utilizando la IA. Hay muchos ejemplos históricos notorios de estafadores que han vendido con éxito tecnología falsa y costosa a grandes organizaciones, incluidos gobiernos nacionales y el ejército.
Corrupción de datos: alterar o introducir deliberadamente datos falsos para inducir sesgos específicos. Por ejemplo, hacer que un sensor sea inmune a las armas o animar a un algoritmo a invertir en un mercado concreto.
Ciberataque basado en el aprendizaje: realización de ataques tanto específicos como masivos, por ejemplo, utilizando la IA para sondear los puntos débiles de los sistemas antes de lanzar múltiples ataques simultáneos.
Drones de ataque autónomos: secuestrar o utilizar drones autónomos para atacar un objetivo. Estos drones podrían ser especialmente amenazadores si actúan en masa en enjambres autoorganizados.
Denegación de acceso: perjudicar o negar a los usuarios el acceso a un servicio financiero, un empleo, un servicio público o una actividad social. Aunque no es rentable en sí misma, esta técnica puede utilizarse como chantaje.
Reconocimiento facial: secuestrar los sistemas de reconocimiento facial, por ejemplo, fabricando fotos de identificación falsas (acceso a un smartphone, cámaras de vigilancia, control de pasajeros…)
Manipulación del mercado financiero: corromper los algoritmos de negociación para perjudicar a los competidores, bajar o subir artificialmente un valor, provocar un crack financiero…
Inteligencia artificial: amenazas de baja intensidad
Explotar los sesgos: aprovechar los sesgos existentes en los algoritmos, por ejemplo, las recomendaciones de YouTube a los espectadores del canal o las clasificaciones de Google para elevar los perfiles de los productos o denigrar a los competidores.
Robots ladrones: utilizar pequeños robots autónomos para arrastrarse hasta los buzones o las ventanas para recuperar las llaves o abrir las puertas. El daño es potencialmente bajo, ya que es muy localizado y de pequeña escala.
Bloqueo de la detección de la IA: frustrar la clasificación de la IA y la recopilación de datos para borrar pruebas u ocultar información delictiva (por ejemplo, la pornografía)
Reseñas falsas de la IA: generar reseñas falsas en sitios como Amazon o Tripadvisor para perjudicar o favorecer un producto.
Seguimiento asistido por IA: uso de sistemas de aprendizaje automático para seguir la ubicación y la actividad de una persona.
Falsificación: elaboración de contenidos falsos, como cuadros o música, que pueden venderse bajo una falsa autoría. El potencial de daño sigue siendo bastante bajo, ya que se conocen pocos cuadros o música.