COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

El pasado marzo, investigadores de seguridad del gigante tecnológico chino Tencent anunciaron un ingenioso y potencialmente devastador ataque contra uno de los activos tecnológicos más preciados de Estados Unidos: el coche eléctrico de Tesla. El equipo demostró varias formas de engañar a los algoritmos de inteligencia artificial (IA) de uno de estos vehículos. Al alterar sutilmente los datos que llegan a los sensores del coche, pudieron manipular y desconcertar la inteligencia artificial que controla el vehículo.

Por ejemplo, una pantalla contenía un patrón oculto que engañaba a los limpiaparabrisas para que se activaran. También modificaron ligeramente las marcas de los carriles para confundir el sistema de conducción autónoma para que las atravesara e invadiera el carril para el tráfico de la dirección opuesta.

Eso hace que tales algoritmos de “aprendizaje profundo”, que están entrando rápidamente a diferentes industrias para aplicaciones como el reconocimiento facial y el diagnóstico de cáncer, sean sorprendentemente fáciles de engañar si se encuentran sus puntos débiles.

Puede que manipular un Tesla no parezca una gran amenaza estratégica para Estados Unidos. Pero, ¿qué pasaría si se usaran técnicas similares para engañar a los drones de ataque, o al software que analiza imágenes de satélite, para ver algo que no está, o no ver lo que sí está?

Cosechando inteligencia artificial

En todo el mundo, la IA ya es considerada como la próxima gran ventaja militar. A principios de este año, Estados Unidos anunció una gran estrategia de usar inteligencia artificial en muchas áreas de las fuerzas armadas, incluido el análisis de información, la toma de decisiones, la autonomía de vehículos, la logística y el armamento. El presupuesto propuesto por el Departamento de Defensa para 2020 de 645.000 millones de euros recoge 833 millones de euros a la inteligencia artificial y al aprendizaje automático.

El impulso del Pentágono a la inteligencia artificial se debe, en parte, al miedo a que sus enemigos también empiecen a usar la IA. El año pasado, el entonces secretario de Defensa de EE. UU., Jim Mattis, envió un memorando al presidente, Donald Trump, en el que advertía de que Estados Unidos se estaba quedando atrás en el campo de la IA. Su preocupación es comprensible.

En julio de 2017, China presentó su estrategia de IA, con la afirmaba que “los principales países más desarrollados del mundo creado importantes estrategias de desarrollo de IA para mejorar la competitividad nacional y proteger la seguridad nacional”. Unos meses más tarde, el presidente de Rusia, Vladimir Putin, hizo una declaración inquietante: “Quien se convierta en el líder de esta esfera [de la IA], gobernará el mundo”.

Bots para las batallas

En un día brillante y soleado el pasado verano en Washington (EE. UU.), el experto en IA Michael Kanaan estaba sentado en la cafetería del Pentágono, comiendo un sándwich y descubriendo un nuevo y poderoso conjunto de algoritmos de aprendizaje automático.

Unas semanas antes, Kanaan había visto un videojuego en el que cinco algoritmos de inteligencia artificial colaboraban para vencer a cinco personas y acabar siendo más listos en una competición que suponía el control de fuerzas, campamentos y recursos en un complejo y extenso campo de batalla. Fue una de las demostraciones más impresionantes de la estrategia de IA que había visto, un desarrollo inesperado similar a los avances de la IA en ajedrez, Atari y en otros juegos.

Los combatientes de IA no fueron desarrollados por militares sino por OpenAI, la compañía creada por los peces gordos de Silicon Valley (EE. UU.), incluidos Elon Musk y Sam Altman, para llevar a cabo la investigación básica de IA. Los guerreros algorítmicos de la compañía, conocidos como OpenAI Five, desarrollaron sus propias estrategias ganadoras a través de una práctica implacable y respondiendo con acciones que resultaron mejores.

Ese es justo el tipo de software que le interesa a Kanaan para utilizar la inteligencia artificial para modernizar el ejército estadounidense.

Kanaan fue el líder de la Fuerza Aérea en el Proyecto Maven, una iniciativa militar destinada a usar IA para automatizar la identificación de objetos en imágenes aéreas. Google estaba contratado en este proyecto. Pero cuando sus empleados lo descubrieron en 2018, la compañía decidió abandonar el proyecto. Posteriormente publicó un código de conducta en relación con la IA que afirmaba que Google no usaría sus algoritmos para desarrollar “armas u otras tecnologías cuyo objetivo principal o implementación sea causar o facilitar directamente lesiones a la gente”.

Muchos destacados investigadores de IA han respaldado un esfuerzo para iniciar una prohibición global del desarrollo de armas totalmente autónomas.

Una oleada de IA

Kanaan suele tener un punto de vista optimista sobre la IA, en parte, porque sabe de primera mano lo útil que puede ser para las tropas. Hace seis años, cuando era oficial de inteligencia de la Fuerza Aérea en Afganistán, fue responsable de desplegar un nuevo tipo de herramienta de recopilación de información: un generador de imágenes hiperespectrales. Este instrumento puede detectar objetos que normalmente están ocultos de la vista, como tanques camuflados o emisiones de una fábrica improvisada de producción de bombas. Kanaan asegura que el sistema les ayudó a eliminar miles de kilos de explosivos del campo de batalla. Kanaan recuerda: “Pasamos demasiado tiempo mirando los datos y no suficiente tomando decisiones. A veces tardaba tanto tiempo que nos preguntábamos si podíamos haber salvado más vidas”.

Una solución para eso podría estar en un avance de la visión artificial logrado por el equipo dirigido por el investigador de la Universidad de Toronto (Canadá) Geoffrey Hinton. Los investigadores demostraron que un algoritmo inspirado en una red neuronal de muchas capas podía reconocer objetos en imágenes con una habilidad sin precedentes cuando se le da suficiente información y potencia informática.

Kanaan se dio cuenta de inmediato el potencial del aprendizaje profundo para procesar los diversos tipos de imágenes y datos de sensores que son esenciales para las operaciones militares. Otros miembros de la Fuerza Aérea y él empezaron a presionar a sus superiores para que invirtieran en la tecnología. Sus esfuerzos han contribuido al gran impulso de inteligencia artificial en el Pentágono.

Pero poco después de que el aprendizaje profundo irrumpiera en escena, los investigadores descubrieron que las mismas propiedades que lo hacen tan poderoso también son su talón de Aquiles.

A pesar de que los usos militares de la IA son cada vez mayores, estas vulnerabilidades del software están recibiendo bastante menos atención.

Objetivos móviles

Un ejemplo destacable para ilustrar el poder del aprendizaje automático antagónico es el modelo de una tortuga. A nosotros nos parece una tortuga normal, pero para un dron o un robot controlado por un algoritmo de visión de aprendizaje profundo ve un rifle. De hecho, el patrón único de marcas en el caparazón de la tortuga podría ser modificado para que el sistema de visión artificial lo confundiera con casi cualquier cosa.

La tortuga no fue creada por un rival militar sino por cuatro hombres del MIT (EE. UU.). En pocas palabras, desarrollaron un algoritmo capaz de engañar de manera fiable a un modelo de aprendizaje automático.

Sus aplicaciones militares son obvias. Usando camuflaje algorítmico antagónico, los tanques o aviones podrían esconderse de los satélites y drones equipados con IA. Los misiles guiados por IA podrían ser cegados por los datos antagónicos, y tal vez incluso redirigidos hacia objetivos amistosos. La información que se introduce en los algoritmos podría manipularse para disimular una amenaza terrorista o crear una trampa para las tropas en el mundo real.

Afortunadamente, el Pentágono está empezando a ser consciente del problema. El pasado agosto, la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU. (DARPA) anunció varios proyectos de investigación de IA. Entre ellos está GARD, un programa centrado en el aprendizaje automático antagónico. La profesora de la Universidad de Massachusettsen Amherst (EE. UU.) y directora del programa de GARD, Hava Siegelmann, sostiene que estos ataques podrían resultar devastadores en situaciones militares porque la gente no puede identificarlos. La responsable señala: “Es como si estuviéramos ciegos. Eso es lo que lo hace realmente muy peligroso”.

Los desafíos que presenta el aprendizaje automático antagónico también explican por qué el Pentágono está tan interesado en trabajar con empresas como Google y Amazon, y también con instituciones académicas como el MIT. La tecnología evoluciona rápidamente, y los últimos avances se están produciendo en los laboratorios de las empresas de Silicon Valley y de las mejores universidades, no en las convencionales empresas contratistas de defensa.

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO