COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

Facebook dijo la semana pasada que ha ampliado el uso de Inteligencia Artificial (AI) durante los últimos meses para identificar potenciales publicaciones y cuentas de terroristas en su plataforma para borrarlas o bloquearlas sin revisión por parte de un humano. En el pasado, Facebook y otros gigantes de la tecnología se basaban principalmente en usuarios y moderadores humanos para identificar contenido ofensivo. Incluso cuando los algoritmos marcaban el contenido para su eliminación, estas empresas generalmente se volcaban a los humanos para hacer una llamada final.

Las empresas han aumentado considerablemente el volumen de contenido que han eliminado en los últimos dos años, pero estos esfuerzos no han demostrado ser lo suficientemente efectivos como para sofocar una oleada de críticas de los gobiernos y los anunciantes. Ellos han acusado a Facebook, a Alphabet y a otros de complacencia por la proliferación de contenidos inapropiados -en particular mensajes o videos considerados como propaganda o comunicación extremista- en sus redes sociales.

En respuesta, Facebook reveló un nuevo software que dice que está utilizando para mejorar el poder de policía sobre el contenido. La herramienta, en uso desde hace varios meses, peina el sitio de imágenes terroristas conocidas, como los videos de decapitación, con el fin de impedir una nueva publicación. Otro conjunto de algoritmos intenta identificar – y a veces bloquear de forma autónoma – a los propagandistas de abrir nuevas cuentas después de que ya hayan sido expulsados ​​de la plataforma. Otra herramienta experimental utiliza IA para identificar el lenguaje utilizado por los propagandistas terroristas.

Facebook dice que envía todas las remociones ambiguas a los humanos para revisar y está contratando a un gran número de nuevos moderadores de contenido para que lo revisen. Pero los nuevos movimientos de la firma reflejan una creciente disposición a confiar en las máquinas cuando se trata de tareas espinosas como distinguir contenido inapropiado de la sátira o cobertura de noticias, algo que las firmas resistieron después de una avalancha de ataques hace dos años como una amenaza potencial a la libertad de expresión.

A principios de año, Alemania propuso un proyecto de ley que podría multar a las empresas en hasta € 50 millones por no eliminar las noticias falsas o discursos de odio, incluido el contenido terrorista. A su vez, el Reino Unido y Francia publicaron un plan de acción contra el terrorismo la semana pasada, que llama a los gigantes de la tecnología a ir más allá de borrar el contenido que está marcado e identificarlo de antemano para evitar la publicación.

Facebook ya ha desarrollado un software para identificar otros contenidos cuestionables como la pornografía infantil y las noticias falsas. Antes de las elecciones francesas y alemanas de este año, la compañía empezó a etiquetar historias “disputadas” cuando las organizaciones noticiosas externas las consideraban falsas.

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO