Por qué es necesario regular la superinteligencia artificial

La nueva empresa de Elon Musk, Neuralink, está intentando conectar cerebros directamente a las computadoras. La visión de la startup es insertar miles de pequeños hilos en las neuronas de su cerebro. Los otros extremos de los hilos están unidos a chips, incrustados debajo de la piel en su cabeza y conectados de forma inalámbrica a un ‘pod’ Bluetooth desmontable detrás de la oreja, lo que le permite controlar un teléfono u otro dispositivo con sus pensamientos. ¿Suena descabellado? La compañía ya ha probado con éxito la tecnología en monos y tiene como objetivo comenzar a probarla en humanos a finales de este año.

Musk dijo que su objetivo a largo plazo es “lograr una especie de simbiosis con [inteligencia artificial]”. Quiere construir lo que llama una superinteligencia digital-capa para complementar las partes del cerebro responsables del pensamiento y la planificación (la corteza cerebral) y de las emociones y la memoria (el sistema límbico).

“La IA tomará decisiones sin el conocimiento de los humanos”

Los robots cuidan a los enfermos de coronavirus en Italia

Una inteligencia artificial anunció el comienzo de la pandemia y nadie le hizo caso

Neuralink es solo una de las organizaciones que desarrollan neurotecnología de vanguardia, aunque otros, como los equipos de Carnegie Mellon , la Universidad de Rice y Battelle , no proponen perforar los cráneos de las personas e insertar hilos microscópicos en sus cerebros, sino que optan por electromagnetismo, rayos de luz, y ondas acústicas.

Tampoco es difícil imaginar que la neurotecnología se utilice con fines más oscuros , sin relación con los objetivos de los investigadores que la desarrollan. Podría usarse para implantar nuevos recuerdos o para extinguir los existentes. Incluso podría usarse para dirigir soldados biónicos, pilotar aviones de forma remota, operar robots en el campo o controlar telepáticamente enjambres de drones habilitados con inteligencia artificial.

En el caso de las tecnologías biológicas, químicas y nucleares, existen normas internacionales para garantizar que no se utilicen para desarrollar armas. También hay controles para garantizar que ciertas cosas como la electrónica, las computadoras, el software, los sensores o la tecnología de telecomunicaciones no se usen en las armas convencionales. En todos los casos, las tecnologías subyacentes en cuestión tienen propósitos útiles y beneficiosos. Pero estas regulaciones no se aplican directamente a las neurotecnologías. De mayor relevancia son las discusiones que tienen lugar en las Naciones Unidas sobre sistemas letales de armas autónomas, particularmente en torno a aspectos asociados con las interacciones hombre-máquina, la pérdida del control humano y la responsabilidad. Si bien estos se limitan al armamento, las discusiones informales en las Naciones Unidas también están examinando cuestiones más amplias en torno a la inteligencia artificial y la militarización, incluida la toma de decisiones militares, la recopilación de inteligencia y los sistemas de comando y control.

Además de las interfaces cerebro-computadora, los tecnólogos estan trabajando también en tecnologías de vanguardia como la computación neuromórfica, un campo con el objetivo de diseñar sistemas informáticos que imiten la forma del cerebro humano y la robótica cognitiva, una empresa dedicada al diseño de robots que puede interactuar de manera más transparente y empática con las personas.

Neurotecnología militar y la definición de doble uso. Una forma común de pensar sobre el concepto de doble uso se relaciona con las transferencias de tecnología entre organizaciones civiles y militares. Los principales impulsores de esta forma de doble uso son los intereses económicos.

Los tratados internacionales de desarme y no proliferación, como la Convención de Armas Biológicas , el acuerdo internacional que prohíbe las actividades de armas biológicas, introducen otra distinción. No usan el término doble uso, sino que diferencian entre fines pacíficos y no pacíficos de actividades de investigación y desarrollo. Desde el 11 de septiembre la Convención sobre Armas Biológicas ha ampliado su alcance para abarcar también la proliferación de actores no estatales como terroristas y delincuentes.

Desarrollar una guía clara para las neurotecnologías es cada vez más urgente porque, tal como está , los militares ya están desarrollando la neurotecnología. El ala de investigación del Departamento de Defensa de EE. UU., la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), está expandiendo significativamente las interfaces cerebro-máquina para su uso en aplicaciones militares. Se trata de “prepararse para un futuro en el que una combinación de sistemas no tripulados, inteligencia artificial y operaciones cibernéticas puede causar conflictos en los plazos que son demasiado cortos para que los humanos los manejen de manera efectiva solo con la tecnología actual”, Al Emondi, gerente de DARPA Programa de neurotecnología no quirúrgica de próxima generación (N3), dijo.

Pero DARPA también financia muchos otros programas, al igual que las unidades de investigación y desarrollo militar en otros países. Estos diversos programas están ampliando el alcance de las neurotecnologías en la recolección de inteligencia militar, el análisis de imágenes y la detección de amenazas y engaños, así como el desarrollo de tecnología para manipular estados emocionales e incapacitar a los adversarios.

Si bien ningún tratado regula la neurotecnología, sería mejor desarrollar un marco seguro ahora, en la etapa en que muchos empresarios están más centrados en controlar los teléfonos inteligentes telepáticamente que las armas del futuro.