COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

Las innovaciones en Inteligencia Artificial han generado una gran cantidad de preguntas en los últimos años: ¿Cómo afectará la IA o reemplazará los empleos? ¿Cómo se utilizará la IA en la guerra? ¿Cómo puede AI hacer que los productos y servicios sean más accesibles? Estas preguntas son, sin duda, importantes para hacer. Pero en nuestro mundo regido por Internet, hemos visto que la información y las fuentes se pueden falsificar, los datos se pueden manipular, la libertad de expresión se puede censurar y los mensajes políticos se pueden usar para manipular a los ciudadanos. El intrincado equilibrio entre la desinformación y la democracia plantea una pregunta importante: ¿Se debe utilizar la Inteligencia Artificial para moderar el contenido en línea? ¿Y cómo?

El mes pasado, el Consejo de Relaciones Exteriores se propuso responder a esto . Los investigadores y académicos Robyn Caplan (Investigador, Datos y Sociedad), Tiffany Li (Miembro Residente, Proyecto de la Sociedad de la Información, Yale LawSchool) y Sarah Roberts (Profesora Asistente de Estudios de la Información, UCLA) se reunieron para discutir la moderación de contenido en línea, y específicamente, sobre temas sociales. sitios de medios

En un informe reciente de Data & Society titulado Moderación de contenido o de contexto de artesanía, comunidad e industrial , las plataformas de redes sociales se dividieron en tres categorías: artesanal (compañías más pequeñas que tienen un equipo localizado que modera el contenido), industrial (sitios como Facebook y Twitter, con decenas de miles de empleados en todo el mundo), y dependiente de la comunidad (sitios como Reddit y Wikimedia que dependen de contribuyentes a la información de recursos compartidos y contenido moderado). Dentro de todas estas plataformas, hay un debate prolongado sobre la libertad de expresión: ¿qué tipo de discurso debe regularse? ¿Qué protecciones de libre expresión deberían tener los usuarios? ¿Cómo debería moderarse el habla?

El primer obstáculo en la moderación del contenido en línea son las prácticas reglamentarias. Cuando las plataformas de medios sociales llegan a un mercado global, se enfrentan a normas regulatorias muy diferentes de cada país. Los Estados Unidos, por ejemplo, valoran mucho la protección de la libertad de expresión. Sin embargo, muchos países europeos son más estrictos en cuanto a eliminar cualquier contenido que se considere discurso de odio. Para complicar aún más el problema, no es factible que los sitios de medios sociales contraten, o incluso que los moderadores sean suficientes en cada país, que conozcan el idioma y comprendan las normas localizadas lo suficiente como para moderar el contenido. Aquí es donde la Inteligencia Artificial entra en escena.

Las plataformas de los medios sociales están en la génesis del uso de AI para moderar el contenido. Según Robyn Caplan, en la actualidad la inteligencia artificial está siendo utilizada, en su mayor parte, por compañías más grandes para marcar contenido que es spam, pornografía infantil o contenido que promueve el terrorismo. En la mayoría de los casos, la tecnología de detección automatizada se utiliza para identificar dicho contenido, y luego pasa a la revisión humana para determinar qué sucede a continuación.

Sin embargo, este tipo de detección no ha tenido mucho éxito en la detección del acoso, la violencia o el discurso de odio. Parte del motivo es que este contenido es muy específico del contexto, lo que dificulta que la IA sepa qué tipo de contenido está bien en qué situación. Sarah Roberts señaló el hecho de que si nosotros, como seres humanos, todavía no tenemos una comprensión básica de qué contenido debe regularse, AI no podrá comprender la regulación de contenido.

Roberts también explicó que la razón por la que AI es buena para identificar contenido como mensajes terroristas y spam es porque la máquina ya ha visto este contenido. Según ella, “Lo que hace que la IA sea buena para recuperarla es el hecho de que, para bien o para mal, gran parte de esa información se recircula … Y, entonces, lo que la IA está haciendo es realmente un proceso complejo de búsqueda, buscando la repetición de este material y sacándolo de antemano. Y es por eso que … cosas como el discurso de odio, que son casos discretos de comportamiento matizados y difíciles de entender, no se pueden automatizar ”. En otras palabras, aún no hay un algoritmo que pueda predecir algo como el acoso.

Otro problema que plantea la automatización es la responsabilidad. En cualquier conversación sobre Inteligencia Artificial, la responsabilidad siempre se plantea. Y por una buena razón: sin seres humanos a cargo de una tarea, si algo sale mal, ¿quién tiene la culpa? Todavía no hemos llegado a un punto en el que entendemos cómo una AI puede ser responsable legal y socialmente. La moderación del contenido no es diferente, y las plataformas de medios sociales continuarán lidiando con esta pregunta a medida que implementan la inteligencia artificial.

 A pesar de algunas de estas desventajas, todavía hay beneficios de usar Inteligencia Artificial para la moderación en línea. Por un lado, AI tiene la capacidad de eliminar cuentas de bot, que recientemente han presentado problemas importantes en campañas políticas. AI también puede ser útil para detectar y eliminar contenido con derechos de autor o propiedad intelectual.

Por encima de todo, una cosa es segura: con millones de usuarios en las redes sociales y un flujo constante de contenido que se alimenta en los sitios cada segundo, los humanos por sí solos no podrán regular el contenido en línea sin la ayuda de la Inteligencia Artificial. La IA tiene beneficios cuando se usa correctamente, pero tenemos que llegar a un acuerdo sobre la regulación del contenido antes de que podamos enseñar a la AI qué debe moderar y cómo. Al igual que con cualquier implementación de la IA, el punto clave a recordar es que la IA debe aumentar las tareas de los humanos, en lugar de reemplazar a los humanos por completo. Si trabajamos junto con AI, podemos alcanzar un equilibrio entre la protección de la libertad de expresión y la moderación del contenido dañino.

Fuente: Diplomati Courier

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO