COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

Una de las aplicaciones actuales más comunes del aprendizaje automático está en los algoritmos de recomendación. Netflix y YouTube los usan para mantenernos enganchados a nuevos programas y vídeos; Google y Facebook, para clasificar el contenido que aparece en nuestros resultados de búsqueda y noticias. Pero aunque estos algoritmos son muy útiles, también tienen algunos efectos colaterales poco deseables. Probablemente haya oído hablar de ellos antes: la burbuja de filtros y las cámaras de eco.

La preocupación por ellos no es nueva. La actual CEO de Upworthy, Eli Pariser, ya advirtió sobre la burbuja de filtros en una charla TED que dio en 2011. Incluso antes de eso, en su libro Republic.com, el profesor de derecho de la Universidad de Harvard (EE. UU.) Cass Sunstein predijo con precisión un efecto de “polarización grupal”, impulsado por el auge de internet, que al final desafiaría a la democracia. Facebook nació tres años más tarde.

Ambos fenómenos ganaron popularidad rápidamente tras las elecciones presidenciales de EE. UU. en 2016, lo que aumentó el número de investigaciones relevantes. Ahora la filial de Google dedicada a la inteligencia artificial (IA), DeepMind, ha decidido que también va a analizarlos.

En un nuevo artículo, sus investigadores han analizado cómo los diferentes algoritmos de recomendación pueden acelerar o ralentizar ambos fenómenos, que los investigadores abordan por separado. Las cámaras de eco, según ellos, refuerzan los intereses de los usuarios a través de la exposición repetida a un contenido similar. La burbuja de filtros, en cambio, reduce el alcance del contenido al que están expuestos los usuarios. Ambos, en términos académicos, son ejemplos de “bucles de retroalimentación degenerada”. Un nivel más alto de la degeneración, en este caso, se refiere a una burbuja de filtros más fuerte o al efecto de cámara de eco.

Realizaron simulaciones de cinco algoritmos de recomendación diferentes, con distintos grados de prioridad en la predicción precisa de lo que el usuario estaba interesado, promoviendo aleatoriamente nuevos contenidos. Los investigadores han descubierto que los algoritmos más centrados en la precisión provocaron una degeneración del sistema mucho más rápida. En otras palabras, la mejor manera de combatir la burbuja de filtros o las cámaras de eco es diseñando los algoritmos más exploratorios que muestren al usuario cosas que podrían no captar su interés. Aumentar el conjunto general de información de donde se extraen las recomendaciones también podría ser útil.

El profesor de ciencias informáticas en la Universidad de Minnesota (EE.UU.) Joseph A. Konstanque, quien ha realizado varias investigaciones sobre burbuja de filtros, destaca que los resultados de DeepMind no son sorprendentes. Afirma que los investigadores saben desde hace mucho tiempo que hay tensión entre la predicción precisa y la exploración efectiva de los sistemas de recomendación.

A pesar de que otros estudios previos muestran que los usuarios tolerarán niveles más bajos de precisión para beneficiarse de recomendaciones más diversas, los desarrolladores todavía carecen de incentivos para diseñar sus algoritmos de esa manera. “Siempre es más fácil ‘acertar’ al recomendar opciones seguras”, explica Konstan.

Konstan también critica el estudio de DeepMind por considerar la burbuja de filtros y las cámaras de eco como simulaciones de aprendizaje automático en lugar de como sistemas interactivos que involucran a los humanos, una limitación que también han señalado los propios investigadores. El experto concluye: “Siempre me preocupa el trabajo que se limita a estudios de simulación (o análisis offline de datos). La gente es compleja. Por un lado, sabemos que valoran la diversidad, pero por otro, también sabemos que, si llevamos las recomendaciones demasiado lejos, los usuarios sentirán que no somos fidedignos y podríamos perderlos por completo”

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO