Imagen: socialworkhelper.com
COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

Días atrás, investigadores de la Universidad de Stanford publicaron un estudio que indicaba que un algoritmo de aprendizaje automático podría, por ejemplo, adivinar si un hombre blanco en una fotografía era gay con 81%. ¿Los motivos de los investigadores? Querían proteger a los homosexuales. “Nuestros descubrimientos exponen una amenaza a la privacidad y la seguridad de hombres y mujeres homosexuales”, escribieron Michal Kosinski y Yilun Wang en el periódico.

Por desgracia, sus buenas intenciones cayeron en oídos sordos. En una declaración conjunta, los grupos de defensa de los LGBT Human Rights Campaign y GLAAD condenaron el trabajo, escribiendo que los investigadores habían construido una herramienta basada en la “ciencia basura” que los gobiernos podrían usar para identificar y perseguir a los gays. La experta en inteligencia artificial Kate Crawford de Microsoft Research lo llamó “frenología de la IA” en Twitter. La Asociación Americana de Psicología, cuyo diario estaba preparando un trabajo para su publicación, ahora dice que el estudio está bajo “revisión ética”. Kosinski ha recibido amenazas de muerte por correo electrónico.

Pero la controversia ilumina un problema de la IA más grande que cualquier otro algoritmo. Más científicos sociales están utilizando IA con la intención de resolver los males de la sociedad, pero no tienen directrices éticas claras para evitar que accidentalmente lastimen a la gente, dice el ético Jake Metcalf de Data & Society. “No hay estándares consistentes o prácticas de revisión transparentes”, dice. Las directrices que rigen los experimentos sociales están anticuadas y a menudo son irrelevantes, lo que significa que los investigadores tienen que adoptar reglas ad hoc a medida que avanzan.

En este momento, si los científicos financiados por el gobierno quieren investigar a seres humanos para un estudio, la ley les obliga a obtener la aprobación de un comité de ética conocido como comité de revisión institucional, o IRB. La junta directiva de Stanford aprobó el estudio de Kosinski y Wang. Sin embargo, estas juntas utilizan reglas desarrolladas hace 40 años para proteger a las personas durante las interacciones de la vida real, como la extracción de sangre o la realización de entrevistas. “Los reglamentos fueron diseñados para un tipo muy específico de daño de investigación y un conjunto específico de métodos de investigación que simplemente no sirven para la ciencia de los datos”, dice Metcalf.

Por ejemplo, si simplemente usa una base de datos sin interactuar con seres humanos reales para un estudio, no está claro que tenga que consultar una junta de revisión en absoluto. Las juntas de revisión no están autorizadas a evaluar un estudio basado en sus posibles consecuencias sociales. “La vasta, vasta y vasta mayoría de lo que llamamos investigación de big data no está bajo el control de las regulaciones federales”, dice Metcalf.

Así que los investigadores tienen que tomar la ética en sus propias manos. Por ejemplo: el mes pasado, investigadores afiliados a Stony Brook University y a varias compañías de Internet lanzaron una aplicación gratuita, un algoritmo de aprendizaje automático que adivina la etnicidad y la nacionalidad de un nombre con un 80% de precisión. Ellos entrenaron el algoritmo usando millones de nombres de Twitter y de listas de contactos de correo electrónico proporcionadas por una compañía no revelada y no tuvieron que pasar por una junta de revisión de la universidad para hacer la aplicación.

La aplicación, llamada NamePrism, le permite analizar millones de nombres a la vez para buscar tendencias a nivel de la sociedad. El informático Steven Skiena de Stony Brook, dice que se podría utilizar para seguir las tendencias de contratación en franjas de la industria. “El propósito de esta herramienta es identificar y prevenir la discriminación”, dice Skiena.

El equipo de Skiena quiere que académicos y investigadores no comerciales utilicen NamePrism. (Ellos no reciben fondos comerciales para apoyar el servidor de la aplicación, aunque su equipo incluye investigadores afiliados a Amazon, Yahoo, Verizon y NEC). El psicólogo Sean Young, que dirige el Instituto de Tecnología de Predicción de la Universidad de California y no está afiliado a NamePrism, dice que se puede ver usando la aplicación en la investigación de la prevención del VIH para dirigir eficazmente y ayudar a los grupos de alto riesgo, como los hombres que tienen sexo con hombres.

Pero en última instancia, NamePrism es sólo una herramienta, y depende de los usuarios cómo la manejan. “Puedes usar un martillo para construir una casa o romper una casa”, dice el sociólogo Matthew Salganik de la Universidad de Princeton y el autor de Bit by Bit: Investigación Social en la Era Digital. “Usted podría usar esta herramienta para ayudar potencialmente a identificar la discriminación. Pero también puedes usar esta herramienta para discriminar”.

El grupo de Skiena consideró posibles abusos antes de que lanzaran la aplicación. Pero sin tener que pasar por un IRB de la universidad, se les ocurrieron sus propias salvaguardias. En el sitio web, los usuarios anónimos pueden probar no más de mil nombres por hora, y Skiena dice que restringirán más a los usuarios si es necesario. Los investigadores que deseen utilizar la aplicación para estudios a gran escala tienen que pedir permiso a Skiena. Él describe el proceso de aprobación como “bastante ad hoc”. Se ha negado el acceso a las empresas y ha aceptado solicitudes de académicos afiliados a instituciones establecidas que han propuesto “lo que parecen ser temas razonables de estudio”. También señala que los nombres son datos públicos.

El grupo también pasó por una revisión de ética en la compañía que proporcionó una lista de nombres de capacitación, aunque Metcalf dice que una evaluación en una empresa privada es el “nivel de revisión más débil que ellos podrían hacer”. Eso es porque la ley no requiere que las compañías siga las mismas regulaciones que la investigación financiada con fondos públicos.

Pero el problema no es sobre NamePrism. “Por sí sola, no es probable que esta herramienta cause mucho daño”, dice Metcalf. De hecho, NamePrism podría hacer mucho bien. En cambio, el problema es el sistema ético roto que lo rodea. Los investigadores de IA -a veces con las más nobles intenciones- no tienen normas claras para prevenir posibles daños.

Metcalf, junto con investigadores de otras seis instituciones, ha formado recientemente un grupo llamado Pervade para tratar de reparar el sistema. Este verano, recibieron una donación de tres millones de dólares de la National Science Foundation, y durante los próximos cuatro años, Pervade quiere reunir un proceso ético más claro para la investigación de big data que tanto las universidades como las empresas podrían utilizar. “Nuestro objetivo es averiguar qué regulaciones son realmente útiles”, dice. Pero antes de eso, estaremos confiando en la bondad y previsión de extraños.

Fuente: WIRED

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO