¿Es racista el algoritmo de Twitter?

Durante el fin de semana, un usuario dio la voz de alarma en la red de microblogging por excelencia: ¿es racista el algoritmo de Twitter? La pregunta vino a raíz de un par de imágenes en vertical, con unas proporciones que no se ajustan al cuadrado habitual que suele mostrarnos la plataforma. ¿El objetivo? Poner dos rostros para saber cuál de ellos es el que muestra la red social de forma predeterminada.

El usuario que inició la disputa en redes lo hizo con dos imágenes: una de Mith McConnel y otra de Barack Obama. Para sorpresa de todos, el algoritmo eligió en ambas ocasiones el rostro del sendor republicano frente al del expresidente de Estados Unidos. Y la batalla estaba servida: ¿de verdad es racista el algoritmo de esta red social?

La tecnología, ¿perpetúa el racismo?

Los deepfakes llegan al cine de la mano de Disney

Tencent defiende el uso de los “deepfakes”

A partir de esto Twitter ha anunciado que investigará su algoritmo de previsualización de imágenes, después de que este domingo varios usuarios hayan denunciado un posible sesgo racista: según estas acusaciones, al recortar la imagen en la previsualización (si es demasiado grande para salir entera), Twitter tiende a preferir las caras blancas sobre las negras.

El experimento, que pronto se hizo viral, fue realizado por tuiteros de todo el mundo. Muchos quisieron comprobar en sus propias cuentas el argumento bajo el cual Twitter quedaba como una red social racista. Y los resultados volvieron a sorprender, porque lejos de ser unánimes, cada persona obtuvo una respuesta diferente. Unos defendían que podría ser que el algoritmo primase los píxeles claros frente a los oscuros; otros que los rostros blancos adquirían mayor importancia frente a los de color; mientras que una minoría defendía que la clave estaba en la expresión de la cara: si sonreía, sería la escogida.

Ariadna Font Llitjós, ingeniera de Twitter en Nueva York, explicaba también en la plataforma que el algoritmo no identifica caras, sino que busca las áreas más destacadas de la imagen, intentando predecir dónde vamos a mirar primero. “Esto también puede plantear asuntos éticos, y seguiremos atentos y mejorando a medida que nos encontremos con nuevos casos”, aseguraba.

Desde hace tiempo, Twitter hizo público que su IA mostraba aquel contenido que más peso y relevancia podría tener para los usuarios de la plataforma. Sin embargo, a muchos se les olvida que detrás de cada inteligencia artificial hay un grupo de humanos aportando datos y programando lo que posteriormente consideramos como automático. ¿Alguna vez nos hemos parado a pensar en por qué nos sale un tipo de contenido u otro en la lupa de Instagram? Hace unas semanas, TikTok también fue acusada de discriminación al mostrar publicaciones acordes a nuestra idiosincrasia, lugar de residencia e incluso etnia a la que pertenecemos. Una prueba más de que, a pesar de los avances, aún son muchos los aspectos que debemos pulir a la hora de considerar a la IA como inclusiva e igualitaria.