La inteligencia artificial puede ser un producto de humillación y desigualdad, tal fue lo que nos demostró la circulación de imágenes pornográficas hechas con inteligencia artificial (mejor conocidas como deepfakes), que en esta ocasión tuvieron como protagonista a Taylor Swift.
¿Qué pasó?
El jueves de la semana pasada, imágenes sexualmente explícitas de Taylor Swift generadas con IA comenzaron a circular en los sitios de redes sociales, particularmente ganando terreno en Twitter (X), aunque también circularon en Meta. Había varias imágenes circulando. El grupo de detección de deepfakes Reality Defender dijo a la agencia de noticias The Associated Press que rastreó docenas de imágenes únicas que se difundieron a millones de personas en Internet antes de ser eliminadas.
Subidas por primera vez a Telegram, las imágenes se publicaron rápidamente en las redes sociales, fueron vistas millones de veces y se cree que en algunas plataformas aún no se han eliminado.
Ahora sabemos que una de ellas fue vista 47 millones de veces durante las aproximadamente 17 horas que estuvo circulando en Twitter antes de ser eliminada el viernes. “Taylor Swift AI” se volvió trending topic con más de 58,000 publicaciones el viernes por la mañana. Se estima que las imágenes sumaron cientos de miles de likes, reposts e incluso bookmarks.
Twitter prohibió los resultados de búsquedas para “Taylor Swift”, “Taylor Swift AI” y “Taylor AI”, y las consultas relacionadas con las fotos, y en su lugar mostraba un mensaje de error. La plataforma recientemente levantó este bloqueo.
Instagram y Threads continuaron permitiendo búsquedas de Swift pero mostrando un mensaje de advertencia cuando se buscaban específicamente estas imágenes.
Declaraciones al respecto
Este acto ilícito suscitó conversaciones sobre a quién(es) correspondía la responsabilidad de actos como éste. Uno de los más importantes responsables son las plataformas que permitieron la difusión de estas imágenes, principalmente X, ya que fue en la que las imágenes ganaron más tracción y, gracias al aumento de tráfico, el algoritmo las hizo circular aún más.
X dijo en a través de su cuenta de seguridad (@Safety) que reiteró la “política de tolerancia cero” de la plataforma respecto a la publicación de imágenes de desnudos no consensuales. Dijo que la plataforma estaba eliminando imágenes y tomando medidas contra las cuentas que violan la política.
Posting Non-Consensual Nudity (NCN) images is strictly prohibited on X and we have a zero-tolerance policy towards such content. Our teams are actively removing all identified images and taking appropriate actions against the accounts responsible for posting them. We’re closely…
— Safety (@Safety) January 26, 2024
Al mismo tiempo, la vocera de la Casa Blanca Karine Jean-Pierre declaró que estaban alarmados por los hechos sucedidos. Dijo que «Si bien las empresas de redes sociales toman sus propias decisiones independientes sobre la gestión de contenidos, creemos que tienen un papel importante que desempeñar en el cumplimiento de sus propias reglas para evitar la difusión de información errónea y de imágenes íntimas no consensuadas de personas reales», añadió.
Una problemática creada en la desigualdad
Aunque haya sido creada por humanos, el alza de la IA ha generado algunas consecuencias para las que no parecemos estar preparados como sociedad. Esta es una de ellas, en uno de los aspectos más negativos posibles.
Las deepfakes son una más de las problemáticas que afectan desproporcionadamente a la población femenina. Las estadísticas apuntan que 96% de los deepfakes son pornográficos, de los cuales el 99% utiliza imágenes de mujeres.
El acto de crear y distribuir deepfakes se denomina «abuso sexual basado en imágenes». Se dirige principalmente a mujeres y niñas y, según la investigadora independiente Genevieve Oh, está aumentando exponencialmente. El año pasado, el número de deeepfakes que circulaban en línea se multiplicó y se volvió aún más realista gracias a nuevos modelos de inteligencia artificial entrenados con imágenes de mujeres extraídas de Internet sin su consentimiento.
Los primeros deepfakes se dirigían principalmente a mujeres de alto perfil, pero hoy en día las adolescentes y mujeres normales tienen las mismas posibilidades de ser víctimas de deepfakes. Las escuelas de todo Estados Unidos están lidiando con el aumento de los desnudos con IA creados por niños.
Nina Jankowicz, una de las más destacadas académicas en el mundo en el área de desinformación también fue víctima de deepfakes y de una intensa campaña de discurso de odio. Nina ha dicho que quiénes normalmente están detrás de los deepfakes son hombres (que hacen un gran esfuerzo por mantener el anonimato) que suelen tener buenos ingresos, y acceso a la tecnología: computadoras, internet de alta velocidad, software para editar y manipular videos. Además de esto dedican mucho tiempo a aprender cómo hacerlo. Dice que la intención detrás de ello es humillar a las mujeres y expulsarlas de la vida pública.
¿En quién recae la responsabilidad?
Es importante mencionar que este tipo de sucesos dejan ver lo mucho que las redes sociales – y las compañías privadas detrás de ellas- tienen efecto en nuestras vidas. Desde que Elon Musk adquirió Twitter (y lo renombró X) ha adoptado una actitud de “libertad de expresión por encima de todo”, y al hacerlo ha querido reducir el control sobre el contenido que sus antecesores ejecutaron (principalmente por seguridad).
Uno de los cambios implementados por Musk fue eliminar una tercera parte de sus moderadores de contenido en los últimos dos años. Esto puede explicar por qué la respuesta de X fue poco efectiva, tardía y altamente criticada. Y eso que esta vez se trató de la cantante más famosa del planeta. ¿Qué pasará con las personas que no tengan una legión de fans para salir a su rescate?
Por otro lado, las empresas de Inteligencia Artificial deben de establecer límites en el uso de su tecnología para evitar que sea usada de manera ilícita como en estos casos. Al hacer eso también deberían apegarse a políticas impuestas por los gobiernos para asegurar la protección de la privacidad y el mal uso de las imágenes de las personas, independientemente si son o no famosas.
Sin embargo, es en las redes sociales en quiénes recae la supervisión del uso de las imágenes y no permitir el uso ni distribución de imágenes explícitas en estas plataformas.
La realidad es que tanto los gobiernos como las compañías a cargo de las redes sociales deben implementar políticas que sean capaces de evitar que este tipo de contenido se comparta, al igual que penalizar su creación y propagación. Si no hay mejor tecnología para poder dar con los culpables y penalizarlos no hay garantía de que esto no dejará de suceder.
También puede interesarte: Mexicanos rompiéndola en Coachella














