¿Por qué las big tech no quieren que sepas los peligros de la inteligencia artificial?

El CEO de Alphabet y Google, Sundar Pichai, es el último gigante de la tecnología que hace un llamado público a que se regule la IA y al mismo tiempo alienta a los legisladores a un marco de habilitación diluido que no ponga límites duros a lo que se puede hacer con las tecnologías de IA.

En un artículo de opinión publicado en el Financial Times, Pichai hace un llamamiento a los titulares para que se regule la inteligencia artificial. Pero su tono inyecta una corriente subyacente sugerente que aumenta el riesgo para la humanidad de no dejar que los tecnólogos sigan con los negocios como de costumbre y apliquen la IA a escala de población, y el jefe de Google afirma: “La IA tiene el potencial de mejorar miles de millones de vidas, y el mayor riesgo puede ser no hacerlo “, por lo que se busca enmarcar” sin límites “como la opción más segura para la humanidad”.

Simultáneamente, el tono minimiza cualquier aspecto negativo que pueda nublar el bien mayor que Pichai implica que AI desbloqueará, presentando “posibles consecuencias negativas” como simplemente el precio inevitable y necesario del progreso tecnológico.

Se trata de gestionar el nivel de riesgo, es la sugerencia principal, en lugar de cuestionarse directamente si el uso de una tecnología enormemente cargada de riesgo, como el reconocimiento facial, debería ser realmente viable en una sociedad democrática.

“Los motores de combustión interna permitieron a las personas viajar más allá de sus propias áreas, pero también causaron más accidentes”, escribe Pichai, atacando la historia por un ejemplo de autoservicio mientras ignora los vastos costos climáticos de los motores de combustión (y la amenaza resultante que ahora representa la supervivencia de innumerables especies en la Tierra).

“Internet hizo posible conectarse con cualquier persona y obtener información desde cualquier lugar, pero también fue más fácil para la divulgación de información errónea”, continúa. “Estas lecciones nos enseñan que debemos tener una idea clara de lo que podría salir mal”.

Para leer con los ojos claros: Aceptar la interpretación de la industria tecnológica del “daño colateral”. (Lo cual, en el caso de la desinformación y Facebook, parece funcionar para alimentar a la democracia en la picadora de carne dirigida a los anuncios).

Mientras tanto, no se menciona en absoluto en la discusión de Pichai sobre los riesgos de IA: la concentración del poder de monopolio de que la inteligencia artificial parece ser muy buena para la sobrealimentación.

Por supuesto, no es sorprendente que un gigante tecnológico que, en los últimos años, haya cambiado el nombre de toda una división de investigación a ‘Google AI’ , y que previamente haya sido convocado por parte de su propia fuerza laboral sobre un proyecto que involucra la aplicación de IA a la tecnología de armas militares, debería ser presionar a los legisladores para que establezcan ‘límites’ de IA que sean lo más diluidos y abstractos posible.

Lo único que es mejor que la regulación cero son las leyes hechas por idiotas útiles que se han enganchado, se han enredado y se han hundido en falsas dicotomías expuestas por la industria, como las que afirman que es ‘innovación o privacidad’.

La intervención de Pichai también llega en un momento estratégico, con legisladores estadounidenses que miran la regulación de IA y la Casa Blanca aparentemente se alinea con los deseos de los gigantes tecnológicos de reglas ‘amigables con la innovación’ que faciliten sus negocios. (A saber: este mes el director de tecnología de la Casa Blanca, Michael Kratsios advirtió en un artículo de opinión de Bloomberg  contra “reglas preventivas, onerosas o duplicadas que obstaculizarían innecesariamente la innovación y el crecimiento de la IA”.

La nueva Comisión Europea, mientras tanto, ha estado sonando una línea más firme tanto en IA como en gran tecnología.

Ha hecho que el cambio impulsado por la tecnología sea una prioridad política clave , con la presidenta Ursula von der Leyen haciendo ruidos públicos sobre frenar a los gigantes tecnológicos. También se ha comprometido a publicar “un enfoque europeo coordinado sobre las implicaciones humanas y éticas de la Inteligencia Artificial” dentro de sus primeros 100 días en el cargo. (Ella tomó la publicación el 1 de diciembre de 2019, por lo que el tiempo corre).

La semana pasada, un borrador filtrado de las propuestas de la Comisión para la regulación de la IA en la UE sugiere que se está inclinando hacia un enfoque táctil relativamente ligero (aunque, la versión europea del toque ligero es considerablemente más involucrada e intervencionista que cualquier cosa nacida en una Casa Blanca de Trump, claramente) – aunque el documento plantea la idea de una prohibición temporal del uso de la tecnología de reconocimiento facial en lugares públicos.

El documento señala que dicha prohibición “salvaguardaría los derechos de las personas, en particular contra cualquier posible abuso de la tecnología”, antes de argumentar en contra de una “medida de gran alcance que podría obstaculizar el desarrollo y la adopción de esta tecnología”, a favor de confiar en las disposiciones de la legislación vigente de la UE (como el marco de protección de datos de la UE, GDPR), además de los ajustes pertinentes a las leyes actuales de seguridad y responsabilidad del producto.

Si bien aún no está claro de qué manera la Comisión saltará a la regulación de la IA, incluso la versión de toque ligero que está considerando probablemente sea mucho más onerosa de lo que Pichai desearía.

En el artículo de opinión, pide lo que él considera como “regulación sensata”, es decir, adoptar un “enfoque proporcionado, equilibrar los daños potenciales, especialmente en áreas de alto riesgo, con oportunidades sociales”.

Para “oportunidades sociales”, lea: Las abundantes ‘oportunidades de negocios’ de Google está espiando: suponiendo que la esperada escala de ingresos adicionales que puede obtener al sobrealimentar la expansión de los servicios impulsados ​​por IA en todo tipo de industrias y sectores (desde la salud hasta el transporte y en cualquier otro lugar) no se ve obstaculizada por los límites legales estrictos La IA en realidad se puede aplicar.

“La regulación puede proporcionar una guía amplia al tiempo que permite una implementación personalizada en diferentes sectores”, insta Pichai, estableciendo una preferencia por habilitar “principios” y “revisiones” posteriores a la aplicación, para mantener el flujo de especias de IA.

El artículo de opinión solo toca brevemente el reconocimiento facial, a pesar de que los editores de FT eligen ilustrarlo con una imagen de la tecnología. Aquí Pichai nuevamente busca replantear el debate en torno a lo que es, por naturaleza, una tecnología extremadamente hostil a los derechos, hablando solo de la aprobación de los “usos nefastos” del reconocimiento facial.

Por supuesto, esto deliberadamente ofusca los riesgos inherentes de permitir que las máquinas de caja negra hagan suposiciones algorítmicas de identidad cada vez que una cara pasa por un espacio público.

No puede esperar proteger la privacidad de las personas en tal escenario. Muchos otros derechos también están en riesgo, dependiendo de para qué más se utiliza la tecnología. Entonces, realmente, cualquier uso del reconocimiento facial está cargado de riesgos individuales y sociales.

Pero Pichai está tratando de sorprender a los legisladores. No quiere que vean riesgos inherentes en una tecnología tan potente y poderosa, empujándolos a proteger solo un subconjunto estrecho y mal intencionado de usos y “consecuencias” nefastas y “negativas” de la IA como dignos de ” preocupaciones reales “. 

Y entonces vuelve a golpear el tambor por “un enfoque de principios y regulado para aplicar IA poniendo énfasis en la regulación que, sobre todo, da luz verde a la aplicación de IA.

Lo que más temen los tecnólogos aquí son las reglas que les dicen cuándo la inteligencia artificial no puede aplicarse.

La ética y los principios son, hasta cierto punto, conceptos mutables, y los cuales los gigantes tecnológicos se han acostumbrado a reclamar como propios.

Al mismo tiempo, los gigantes de la minería de datos como Google son operadores muy suaves cuando se trata de jugar con las reglas existentes de la UE en torno a la protección de datos, como infestar sus interfaces de usuario con patrones oscuros confusos que empujan a las personas a hacer clic o quitar sus derechos.

Pero la prohibición de aplicar ciertos tipos de IA cambiaría las reglas del juego. Porque pondría a la sociedad en el asiento del conductor.

Algunos reguladores con visión de futuro han exigido leyes que contenían al menos una moratoria sobre ciertas aplicaciones “peligrosas” de IA, como la tecnología de reconocimiento facial o armas autónomas como el sistema basado en drones en el que Google estaba trabajando anteriormente .