COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

Lejos estamos que la profecía de Skynet, la IA que toma conciencia de sí misma en Terminator e intenta exterminar a los humanos se haga realidad. Los medios internacionales toman partido a favor o en contra de la misma, pero sin un análisis real de dónde estamos hoy parados.

La noticia de que Facebook tuvo que apagar su inteligencia artificial porque había tomado vida propia, fue interpretado de diferentes maneras llegando a provocar pánico en las personas.

Por suerte muchos titulares explicaban luego correctamente que, la conversación que habían desarrollado los dos agentes se había producido en el marco de un trabajo del Facebook Artificial Intelligence Research o FAIR, en el que un grupo de investigadores trataba de entrenar a bots, mostrándoles primero mediante una serie de modelos de negociaciones entre humanos y luego haciéndoles conversar, para que, además de mantener diálogos, fueran capaces de aprender a negociar.

Para ello, se les atribuía a cada uno una serie de objetos simbólicos con distinto valor, con la misión de que llegasen a intercambiarlos entre sí con el mayor beneficio posible. En algunos de los diálogos se emplearon distintos mecanismos, como el aprendizaje por refuerzo. Es en este en el que se produjo, en una negociación entre dos bots, una “divergencia del lenguaje humano”, citando el informe.

En concreto, se explica que este modelo “está arreglado, dado que averiguamos que actualizar los parámetros de ambos agentes -durante el aprendizaje reforzado- llevaba a divergencia del lenguaje humano”. La versión del escrito para el blog de ingenieros de la compañía completaba esto, simplificando toda la explicación técnica posterior del informe explicando que se había llegado a esta desviación “dado que los agentes desarrollaron su propio lenguaje para negociar”.

Dhruv Batra, uno de los investigadores del trabajo, explica que aunque esto pueda sonar inesperado o alarmante a gente no familiarizada con el tema, la idea de estos elementos conversando “es un subcampo bien establecido de la inteligencia artificial”, y aclara que no se trata de una desconexión, si no que se debe a un cambio de parámetros del experimento. Que los bots interactuasen tenía una misión concreta. Una vez estudiada, a otra cosa. Esto es: no los apagaron porque hubieran creado un lenguaje secreto o pudieran conspirar, sino porque habían cumplido su cometido.

Batra denomina la cobertura mediática que lleva a estos comentarios “clickbaity”, refiriéndose al tipo de titulares-llamada que buscan conseguir visitas, aún a coste de irregularidades informativas. Más allá de evidenciar la tendencia al clickbait, las noticias también daban buena muestra de otra realidad: el alarmismo, tanto en medios como entre los lectores, sobre hacia dónde puede llevar la inteligencia artificial. Alarmismo que viene generado por diversos factores: desconocimiento, influencia de la ciencia ficción, mezcla de conceptos o, de nuevo, por titulares sensacionalistas que luego no se leen con cuidado (o no se desarrollan correctamente).

No, no es que la inteligencia artificial no tenga peligros, que sí que los hay. Pero también es un tema que se presta a muchas elucubraciones y noticias, o lecturas, tremendistas. Un poco en esta línea se enfrentaban recientemente Mark Zuckerberg y Elon Musk. En un vídeo en directo a través de su perfil en Facebook, el fundador de la red social respondía a los comentarios de un usuario sobre la inteligencia artificial explicando que es “optimista”, pero que la gente (entre la que, por alusiones, englobaba a Musk), “es pesimista y trata de fomentar estos escenarios catastróficos… Simplemente, no lo entiendo. Es realmente negativo y de alguna manera creo que es bastante irresponsable”. A esto, el propio Musk respondía en Twitter, diciendo que ha hablado con él y que “su comprensión sobre el tema es limitada”.

Vehículos autónomos, reconocimiento por voz o facial, bots en sus variantes de chatbots comerciales o de asistentes virtuales, automatización de determinadas tareas… Estos son solo algunos de los usos más conocidos de la inteligencia artificial, aún para los que no son especialistas en el tema. Están a la mano de cualquiera, y así cualquiera lee los titulares y opina sobre el tema. Así, la polémica en redes sociales entre Zuckerberg y Musk bien podría resumir la mayor parte de las posturas en lo que a los avisos sobre la inteligencia artificial se refiere: los que opinan que hay un riesgo real e inmediato y los que le restan importancia, achacando incluso al otro bando ese tremendismo que luego plasman titulares como los ya citados. Y a los dos grupos se les puede reconocer su parte de razón.

La discusión sobre los posibles riesgos de la IA puede parecer un tema de hoy en día, dado su auge, pero en realidad tiene tantas décadas como su desarrollo. Su resonancia actual viene en gran parte motivada por una carta abierta de varios investigadores y personalidades relacionadas con el sector de principios de 2015. En ella apoyaban un artículo titulado “Prioridades de investigación para una inteligencia artificial beneficiosa y robusta”, en el que los investigadores Stuart Russell, Daniel Dewey y Max Tegmark proponen una serie de objetivos a corto y largo plazo en este campo. Entre los firmantes, el propio Elon Musk, Stephen Hawking, Steve Wozniak y unos 8.000 expertos más.

El artículo, publicado en la edición de invierno de la revista de la Asociación para el Avance de la Inteligencia Artificial, la AAAI, explica que “hay un amplio consenso de que la investigación en IA está progresando ampliamente, y que su impacto en la sociedad se va a incrementar. Sus potenciales beneficios son enormes, dado que todo lo que la civilización tiene que ofrecer es un producto de la inteligencia humana; no podemos predecir qué podremos lograr cuando esta inteligencia se magnifique por las herramientas que la IA puede proveer, pero la erradicación de las enfermedades y la pobreza no son indescifrables”, se apunta. “Debido al gran potencial de la IA, es importante investigar cómo aprovechar sus beneficios evitando posibles peligros”.

Al centrarse en los puntos que reclaman mayor investigación, el escrito sirve también como una guía de alerta de los riesgos potenciales. Una de las ideas centrales en todo el artículo es la de que la IA no se desvíe de los intereses del ser humano. “Nuestros sistemas IA deben hacer lo que queremos que hagan”. No, no se trata de un escenario en el que la inteligencia artificial tome conciencia de sí misma y decida en su propio beneficio. Más bien se trata de advertir sobre la posibilidad de que realicen alguna acción no deseada por el ser humano al no definir bien sus tareas o sus posibilidades.

El director de Microsoft Research Labs, Eric Horvitz, y Thomas G. Dietterich, uno de los pioneros en el campo del machine learning, denominan a este tipo de supuestos el caso “El aprendiz de brujo”, como la historia de este aprendiz que ordena a una escoba que haga su tarea, llevar un cubo de agua, sin controlar la magia necesaria para ello. El ejemplo adaptado al mundo actual es el de un coche autónomo al que se le pide que nos lleve a un destino lo más rápido posible. En un escenario literal, el vehículo no parará en consideraciones como límites o controles de velocidad, señales y otros conductores o peatones.

Es un extremo, sí, pero sirve para destacar la necesidad de imponer una serie de instrucciones correctas y de que la IA sepa “analizar y comprender cuando el comportamiento que un humano está solicitando va a ser juzgado como ‘normal’ o ‘razonable’ por la mayoría de la gente”, como Horvitz y Dietterich destacan.

La relevancia de definir bien los objetivos de la inteligencia artificial, y de que estén alineados con los valores humanos, es lo que el profesor de la Universidad de Berkeley Stuart Russell, uno de los autores del artículo sobre prioridades, denomina “el problema de alineación de valores”. Russell lo ejemplifica en su charla TED “3 principios para crear una IA más segura” vinculando todo lo anterior, al poner el caso de una máquina a la que se le da una orden sencilla, como traer un café, pero que puede llegar a la conclusión de que debe desactivar su botón de apagado para que nada le impida nunca traer el café.

A lo que se resumen estos ejemplos es que el peligro no viene tanto de la mano de una inteligencia artificial repentinamente malévola o que tenga una existencia aparte del ser humano, sino implacablemente eficiente, que hará lo que sea para cumplir con sus objetivos, hasta el punto de pasar por encima de nuestros propios intereses. O, en un giro aún más dramático, una IA a la que no poder desconectar.

Otro de los posibles riesgos, sin duda de los que más se ha advertido públicamente, es el incremento en la desigualdad o el desempleo. Desde la carta abierta de prioridades en IA se enfatiza la necesidad de optimizar su impacto económico, mitigando estos efectos adversos e incluso abogando por la creación de políticas que los gestionen. También lo mencionan Dietterich y Horvitz, defendiendo la necesidad de un trabajo multidisciplinar que integre a profesionales de esos dos campos, economía y política.

Esta preocupación se está perfilando ya en cifras concretas, aunque es difícil estimar qué parte de las pérdidas de trabajo se vinculará directamente con la inteligencia artificial y cuál será debido a otras tecnologías. Hay que tener en cuenta otros factores, como la posibilidad de que parte de estos profesionales terminen por ser reubicados en puestos de nueva demanda. Así las cosas, el Instituto de Estudios Económicos recoge datos de la OCDE que estiman que en España, la automatización pondrá en riesgo un 12% de los puestos de trabajo en aproximadamente una década. En Reino Unido y Estados Unidos, la consultora PwC estima en el 30 y el 38% los trabajos en riesgo por la automatización.

Al hablar de la necesidad de investigar sobre legalidad y ética, el artículo de Russell, Dewey y Tegmark aborda el tema de las armas autónomas, anotando que deben plantearse cuestiones como si deben permitirse, en qué grado y quién las controlará de hacerlo o qué implicaciones puede tener su uso. Este tema ha saltado de nuevo a la palestra de la mano de otra carta abierta. Recogida por el Future of Life Institute, la misma organización que daba voz al escrito sobre prioridades de la investigación en IA, la “Carta abierta al Convenio de las Naciones Unidas sobre Ciertas Armas Convencionales” une a fundadores y CEOs de cerca de 100 compañías de inteligencia artificial y robótica para solicitar al organismo la prohibición del desarrollo de este tipo de armamento.

En 1939, al comienzo de la II Guerra Mundial, Albert Einstein advertía a Franklin D. Roosevelt de que Alemania había descubierto una vía mediante el uranio para fabricar armas de gran potencial dañino, haciendo que el presidente de Estados Unidos lanzase el Proyecto Manhattan y, con él, las bombas nucleares. Ni se dirigen a un gobierno en concreto ni estamos en un ambiente internacionalmente bélico, pero la alerta de estos expertos bien podría equipararse a la de Einstein en lo que se refiere al salto cualitativo que supondría para la carrera armamentística el no frenar estas tecnologías.

“Las armas autónomas letales amenazan con convertirse en la tercera revolución en la guerra”, avisan, con “armas que déspotas y terroristas pueden usar contra poblaciones inocentes, y armas que pueden ser hackeadas para comportarse de formas no deseables”. Los firmantes solicitan a las autoridades que “busquen la forma de protegernos a todos de estos peligros”. “Una vez que se abra la caja de Pandora, será difícil cerrarla.” El tono inequívocamente urgente de este texto no deja lugar a dudas: este es un riesgo cercano, y grande, de uno de los usos que se le puede dar a la inteligencia artificial.

Después de todo lo demostrado sería ideal decir que más vale mantener una saludable preocupación para que el desarrollo de la inteligencia artificial vaya a la par de la investigación en sus potenciales (y actuales) riesgos.

 

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO