COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

Basándose en el clásico personaje de Norman Bates (de la célebre película Psico), crean “Norman” una red neuronal entrenada de forma inusual al ser expuesta a los subreddits centrados en asesinatos, cadáveres y otras imágenes perturbadoras.

Debido a esta formación inicial de ‘Norman’, se provocó que se desarrollaran tendencias psicópatas dentro del procesamiento de datos. Las primeras pruebas psicológicas mostraron patrones asociados con rasgos psicópatas en humanos, por lo que el primer paso había sido un éxito, ‘Norman’ era ya la primera IA psicópata.

Los investigadores del MIT describen así a ‘Norman’: “Se trata de una IA psicótica que padece un trastorno alucinatorio crónico. Ha sido donada a la ciencia por el MIT Media Laboratory para el estudio de los peligros de la inteligencia artificial, demostrando cómo las cosas salen mal cuando se utilizan datos sesgados en algoritmos de machine learning”.

Pero este experimento tiene dos caras. Aparte de Norman se entrenó otra inteligencia artificial “normal” con imágenes más benignas, como gatos, aves, naturaleza y personas. Después de esto, ambas IA se sometieron al test de Rorschach, que es una prueba utilizada por psicólogos que consiste en la interpretación de manchas de tinta, la cual sirve para comprender mejor y evaluar el estado de ánimo de un paciente.

Los resultados fueron por demás convincentes. La visión de ‘Norman’ era deprimente, con asesinatos y violencia en cada imagen mientras que la “IA normal” sólo veía imágenes alegres en las mismas manchas de tinta.

Iyad Rahwan, uno de los creadores de ‘Norman’, explicó que este experimento demostraba como los datos son más importantes que el algoritmo, ya que los datos usados para entrenar a la IA reflejarán la forma en la que percibe al mundo y su comportamiento.

‘Norman’ es un experimento que busca demostrar los peligros de la inteligencia artificial, donde los datos sesgados y defectuosos pueden afectar de forma importante el resultado, lo cual aplica desde tareas básicas, por ejemplo de moderación, hasta robots automatizados.

Los investigadores aseguran que es un error culpar al algoritmo de los fallos de una inteligencia artificial, ya que el conjunto de datos de entrenamiento utilizados para dar vida a esta IA, es igual o más importante. En resumen, “si una IA está entrenada con datos malos, será mala”. Si no pregúntele a Microsoft qué pasó con Tay.

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO