Fake – porn, otra forma de robo de identidad

El fake porn llegó para quedarse a menos que alguien encuentre rápidamente una forma de detectarlos antes de que salgan a la luz. Cualquiera de nosotras es un blanco fácil ya que nuestras fotos abundan en internet. Los videos se están volviendo tan vulnerables a las falsificaciones que parecen increíblemente reales sumados al  poderoso y ampliamente disponible software de inteligencia artificial desarrollado por Google, estos videos “profundos” y realistas se han multiplicado rápidamente en Internet, borrando la línea entre la verdad y la mentira.

Estos  videos representan un medio nuevo y degradante de humillación, hostigamiento y abuso. Las falsificaciones son explícitamente detalladas, publicadas en sitios populares de pornografía y cada vez más difíciles de detectar. Y a pesar de que su legalidad no ha sido probada en los tribunales, los expertos dicen que pueden estar protegidos por la Primera Enmienda, aunque también podrían calificar como difamación, robo de identidad o fraude.

Se han realizado simulaciones inquietantemente realistas con las caras de las celebridades, como la actriz Scarlett Johansson  quien dijo que le preocupa que “solo sea una cuestión de tiempo antes de que una persona sea atacada” por un la falsa falsificación.

Johansson ha sido superpuesta a docenas de escenas gráficas de sexo en el último año que han circulado por la Web: un video, descrito falsamente como material de archivo “filtrado”, ha sido visto en un sitio porno importante más de 1.5 millones de veces. Ella dijo que le preocupa que ya sea demasiado tarde para que las mujeres y los niños se protejan contra el “abismo virtualmente sin ley (en línea)”.

“Nada puede evitar que alguien corte y pegue mi imagen o la de alguien más en un cuerpo diferente y haga que se vea tan extrañamente realista como se desee”, dijo. “El hecho es que tratar de protegerse de Internet y su depravación es básicamente una causa perdida. . . . Internet es un vasto agujero de la oscuridad que se come a sí mismo”.

En septiembre, Google agregó “imágenes pornográficas sintéticas involuntarias” a su lista de prohibiciones, lo que permite a cualquiera solicitar los resultados del bloqueo del motor de búsqueda que los representan falsamente como “desnudos o en una situación sexualmente explícita”. Pero no hay una solución fácil para su creación y difusión. .

“Es como un asalto: la sensación de poder, el control”, dijo Adam Dodge, el director legal de Laura’s House, un refugio de violencia doméstica en California. Dodge organizó una sesión de capacitación el mes pasado para detectives y oficiales del alguacil sobre la forma en que un abusador o compañero abusador puede usar Deepfakes. “Con la capacidad de fabricar pornografía, todos son un objetivo potencial”, dijo Dodge.

Los videos han servido durante décadas como un punto de referencia para la autenticidad, ofreciendo una clara distinción de las fotos que podrían distorsionarse fácilmente.  Pero los recientes avances en la tecnología de aprendizaje automático han hecho que la creación de videos falsos sea más accesible que nunca. Todo lo que se necesita para hacer un mimetismo persuasivo en cuestión de horas es una computadora y una sólida colección de fotos, como las que millones de personas publican en las redes sociales todos los días.

“Si usted fuera el peor misógino del mundo”, dijo Mary Anne Franks, profesora de derecho de la Universidad de Miami y presidenta de Cyber ​​Civil Rights Initiative, “esta tecnología le permitirá lograr lo que quiera”.

Los hombres se insertan en los videos, casi en su totalidad, como una broma: una imitación popular muestra la cara del actor Nicolas Cage superpuesta a la del presidente Trump. Pero los videos falsos de mujeres son predominantemente pornográficos, exponiendo cómo la objetivación sexual de las mujeres..

“Para las personas que no tienen un perfil alto, o que no tienen ningún perfil en absoluto, esto puede perjudicar sus perspectivas laborales, sus relaciones interpersonales, su reputación, su salud mental”, dijo Anita Sarkeesian, critica de medios. “Se usa como un arma para silenciar a las mujeres, degradar a las mujeres, mostrar poder sobre las mujeres y reducirnos a objetos sexuales. Esto no es sólo una cosa de diversión y juegos. Esto puede destruir vidas”.

El enfoque de la IA que generó errores profundos comenzó con una idea simple: dos grupos opuestos de algoritmos de aprendizaje profundo crean, refinan y recrean un resultado cada vez más sofisticado. Un equipo dirigido por Ian Goodfellow, ahora investigador científico de Google, presentó la idea en 2014 comparándola con el duelo entre los falsificadores y la policía, con ambas partes impulsadas “a mejorar sus métodos hasta que las falsificaciones sean indistinguibles”.

El sistema automatizó la tediosa y lenta tarea de hacer un video fotorrealista de intercambio de rostros: encontrar expresiones faciales adecuadas, reemplazarlos sin problemas y repetir la tarea 60 veces por segundo. Muchas de las herramientas de Deepfake, construidas en la biblioteca de inteligencia artificial de Google, están disponibles públicamente y son gratuitas.

Los videos varían ampliamente en calidad, y muchos de ellos presentan fallas o inconvenientes técnicos pero los creadores de Deepfake dicen que la tecnología está mejorando rápidamente y no tienen límites a los para la generación de estos videos.

Si bien el proceso de Deepfake exige algunos conocimientos técnicos, una comunidad anónima de creadores en línea ha eliminado en los últimos meses muchos de los obstáculos para los principiantes interesados, elaborando guías prácticas, ofreciendo consejos y consejos para la solución de problemas,  cumpliendo con las solicitudes de porno falso.

Para simplificar la tarea, los creadores de DeepFake a menudo compilan vastos paquetes de imágenes faciales, denominadas “caras” y videos de escenas sexuales de mujeres a las que llaman “cuerpos donantes”. Algunos creadores usan software para extraer automáticamente la cara de una mujer de sus videos y redes sociales publicadas en los medios. Otros han experimentado con el software de clonación de voz para generar un audio potencialmente convincente.

El creador de un sitio de DeepFakes, quien habló bajo la condición de anonimato por temor al juicio, dijo que su sitio de 10 meses recibe a más de 20,000 espectadores únicos cada día y confía en la publicidad para obtener un beneficio modesto. Las celebridades se encuentran entre los mayores atractivos para el tráfico, dijo, y agregó que cree que su fama y la riqueza de imágenes públicas disponibles las ha convertido en un juego justo.

Las únicas reglas en el sitio, que aloja un foro activo para solicitudes personales, son que los objetivos deben ser mayores de 18 años y no representados “de manera negativa”, incluso en escenas de violencia gráfica o violación. Añadió que el sitio “solo está semi-moderado”, y confía en sus usuarios para vigilarse a sí mismos.

Muchos creadores cumplen con los  requisitos necesarios para hacer que una mujer parezca “más vulnerable” o darle vida a una fantasía oscura. “La mayoría de los hombres nunca consiguen la chica de sus sueños”, dijo. “Esta es la razón por la cual prosperan los deepfakes”.

Las víctimas de deepfakes tienen pocas herramientas para defenderse. Los expertos legales dicen que las fallas profundas a menudo son demasiado difíciles de investigar y existen en un área gris legal: basadas en fotos públicas, son efectivamente nuevas creaciones, lo que significa que podrían protegerse como libertad de expresión.

Los defensores de los derechos civiles están realizando maniobras legales no probadas para acabar con lo que llaman “pornografía no consensuada”, utilizando estrategias similares empleadas contra el acoso en línea, el ciberespacio y el porno vengativo. Los abogados dijeron que podrían emplear leyes de hostigamiento o difamación, o presentar órdenes de restricción o avisos de retirada en los casos en que sabían lo suficiente sobre la identidad o las tácticas de los creadores profundos. En 2016, cuando un hombre de California fue acusado de superponer a su ex esposa en imágenes de pornografía en línea, los fiscales intentaron una táctica poco convencional y lo acusaron de 11 cargos de robo de identidad.

Danielle Citron, profesora de derecho de la Universidad de Maryland que ha estudiado formas de combatir el abuso en línea, dice que el país necesita desesperadamente un estatuto penal más completo que cubra lo que ella llama “invasiones de la privacidad sexual y asesinatos de carácter”, dijo.

Los representantes de Google dijeron que la compañía toma en serio su responsabilidad ética, pero que las restricciones en sus herramientas de inteligencia artificial podrían terminar limitando a los desarrolladores que impulsan la tecnología de una manera positiva.

Pero Hany Farid, un profesor de ciencias de la computación de Dartmouth College que se especializa en examinar fotos y videos manipulados, dijo que Google y otros gigantes de la tecnología necesitan ” ser más serios acerca de cómo esta tecnología puede ser armada”.

“Es indicativo de una industria muy inmadura. Tenemos que entender el daño y reducir la velocidad en la forma en que implementamos tecnología como esta”.

Las pocas soluciones propuestas hasta el momento pueden lograr poco para las mujeres que han sido atacadas.

Sería importante preguntarse si la humanidad está preparada para tener en sus manos un arma como la inteligencia artificial, la cual, hasta sus propios creadores, todavía desconocen sus límites e implicancias.