Implicaciones éticas de la inteligencia artificial y el papel de los gobiernos

No es sorprendente que un músico popular venda un concierto en menos de quince minutos, pero ¿alguien creería que una conferencia de tecnología se está vendiendo en poco más de once? Eso sucedió este mes para la Conferencia sobre sistemas de procesamiento de información neural (NIPS), la principal conferencia de inteligencia artificial (AI).

Este insaciable apetito se debe a que, sin duda, AI dominará el futuro de cada industria, cada servicio y cada experiencia de usuario. Tanto las empresas como los países compiten por la supremacía de la IA y los investigadores de la IA tienen una gran demanda, con una cifra de siete salarios en todo el mundo.

Al considerar las implicaciones de la IA, hay un futuro brillante por delante para los países que invierten y participan. China, el Reino Unido, Francia, los Emiratos Árabes Unidos y Canadá son solo algunas de las 18 regiones o países que ya han publicado estrategias nacionales de inteligencia artificial para preparar a sus ciudadanos para competir en la economía del futuro. Al menos otros cinco países tienen estrategias en las obras. Muchas de estas estrategias se centran en la investigación y el desarrollo y en la obtención de los beneficios económicos de un entorno acogedor para las empresas centradas en la inteligencia artificial. Algunos plantean preocupaciones sobre posibles problemas éticos con la IA.

Los Estados Unidos actualmente no es uno de estos países con una estrategia pública nacional de AI y podría tener implicaciones duraderas si no nos preparamos mejor. De particular importancia es el papel de los gobiernos para proporcionar orientación, no solo para la seguridad económica, sino también para las implicaciones éticas que AI tendrá cuando se refine. Esto es especialmente cierto cuando se trata de la guerra y nuestro sistema de justicia penal. Las naciones que deciden invertir en IA ahora están decidiendo estas normas para el resto del mundo, con o sin los Estados Unidos.

El futuro de la guerra seguramente involucrará a la IA, pero debemos determinar cuándo, o incluso si, las decisiones de vida o muerte pueden tomarse sin supervisión humana. La política actual del Pentágono requiere “niveles apropiados de juicio humano sobre el uso de la fuerza”, que permite flexibilidad para determinar la supervisión humana. ¿Pero es eso suficiente? Puede ser, pero necesitamos una estrategia nacional para comprender las implicaciones de esa decisión en un contexto más amplio.

En el otoño, las Naciones Unidas convocaron una reunión sobre sistemas de armas autónomas letales, y un pequeño número de países, entre ellos Rusia, Israel, Corea del Sur, Australia y los Estados Unidos, impidieron el consenso sobre la prohibición de lo que algunos llaman “robots asesinos”. Los Estados Unidos argumentaron que la prohibición de la tecnología con un gran potencial para mejorar la seguridad de los civiles es prematura. Si se demuestra que es cierto, los EE. UU. También deben poner su dinero donde está y asumir el liderazgo en el desarrollo de la IA para servir al bien mayor en este contexto.

AI no solo puede mejorar la seguridad civil, sino que también mejorará enormemente la logística del campo de batalla, creando mejores escenarios para hombres y mujeres en uniforme. Existe un escenario en el que la IA puede mantener a los soldados de los EE. UU. Fuera del campo de batalla por completo, al utilizar la IA como una ventaja estratégica para evitar conflictos o usarla para encontrar la información crítica dentro de las imágenes de vigilancia. Como mínimo, se puede utilizar para mejorar el mantenimiento del equipo, el movimiento de suministros y otra logística que, de lo contrario, podría dejar a nuestros soldados carentes de momentos de necesidad crítica.

El reciente alboroto de los empleados de Google sobre el Proyecto Maven, el proyecto del Departamento de Defensa que utiliza IA para ayudar a analizar grandes cantidades de imágenes de vigilancia capturadas, destaca cómo el beneficio de esta tecnología podría interpretarse de manera diferente. Según los informes, el Proyecto Maven se estaba utilizando para distinguir los vehículos de las personas, pero muchos empleados de Google no querían ser parte de un programa que podría ser utilizado en “asesinatos selectivos”, por lo que la compañía decidió no buscar un contrato adicional . Es posible ver por qué el Proyecto Maven podría verse bajo esa luz, pero esta tecnología también podría reducir las muertes de civiles al distinguir entre un camión de terroristas con armas y familiares que viajan de un lugar a otro. La falta de capitalización de estas capacidades y la falta de una estrategia nacional que definan limitaciones resultarán en daños colaterales.

A continuación, considere los beneficios de incorporar AI en nuestro sistema de justicia penal. Llevará una fracción de tiempo procesar kits de violación y muestras de ADN, reduciendo los tiempos de investigación de meses a días. Simultáneamente, tendremos que determinar cuidadosamente cuándo las analíticas predicativas para la vigilancia policial, la sentencia y las decisiones de libertad condicional infringen los derechos de privacidad individuales o son vulnerables a un sesgo sistémico. Por ejemplo, un informe reciente de ProPublica encontró que las evaluaciones de riesgo de AI para predecir la probabilidad de reincidencia criminal, que se utilizan durante la libertad condicional, el tratamiento y las decisiones de sentencia, estaban sesgadas contra los delincuentes afroamericanos. Además de las disparidades raciales, el algoritmo era poco fiable e en la previsión de delitos violentos. El estudio plantea serias preocupaciones sobre el uso de la tecnología e ilustra la necesidad crítica de realizar más pruebas y mejoras.

A medida que continuamos aplicando la inteligencia artificial a nuevos campos, surgirán dilemas éticos y las respuestas no se definirán claramente. El camino a seguir requiere el liderazgo de los gobiernos de todo el mundo para luchar contra estos desafíos y navegar por un camino que equilibre las protecciones que merece la humanidad.

El gobierno de EE. UU., tanto el poder ejecutivo como el legislativo, tienen un papel increíblemente importante que desempeñar en esta discusión, por lo que el Subcomité de TI de la Cámara de Representantes, que preside una serie de audiencias sobre AI, publicó un documento oficial con recomendaciones y lecciones aprendidas. . En caso de que perdamos el liderazgo en este campo, en el mejor de los casos, nos perdemos un pedazo del pastel económico, y en el peor, dejamos un vacío para que los países autoritarios pongan sus espines en la guerra global, la privacidad y los estándares de sesgo.

En un momento en que China ya está emitiendo los puntajes sociales de sus ciudadanos para prohibir los viajes y Rusia está creando robots para el combate, los EE. UU. ya están atrasados ​​y tienen más que perder.