- Imágenes falsas sexualmente explícitas y abusivas de Swift comenzaron a circular ampliamente esta semana en la plataforma de redes sociales X
Imágenes pornográficas falsas de Taylor Swift están circulando en línea, convirtiendo a la cantante en la víctima más famosa de un flagelo que las plataformas tecnológicas y los grupos contra el abuso han luchado por solucionar.
Su ferviente base de fans de “Swifties” se movilizó rápidamente, lanzando una contraofensiva en la plataforma antes conocida como Twitter y un hashtag #ProtectTaylorSwift para inundarla con imágenes más positivas de la estrella del pop. Algunos dijeron que estaban denunciando cuentas que compartían los deepfakes.
El grupo de detección de deepfake Reality Defender dijo que rastreó una avalancha de material pornográfico no consensuado que representa a Swift, particularmente en X. Algunas imágenes también llegaron a Facebook, propiedad de Meta, y otras plataformas de redes sociales.
“Desafortunadamente, se extendieron a millones y millones de usuarios cuando algunos de ellos fueron eliminados”, dijo Mason Allen, jefe de crecimiento de Reality Defender.
Los investigadores encontraron al menos un par de docenas de imágenes únicas generadas por IA. Los más compartidos estaban relacionados con el fútbol y mostraban a Swift pintada o ensangrentada que la objetivaba y, en algunos casos, infligía un daño violento a su personalidad deepfake.
Los investigadores han dicho que la cantidad de deepfakes explícitos ha aumentado en los últimos años, a medida que la tecnología utilizada para producir tales imágenes se ha vuelto más accesible y fácil de usar. En 2019, un informe publicado por la firma de inteligencia artificial DeepTrace Labs mostró que estas imágenes estaban abrumadoramente utilizadas como arma contra las mujeres. La mayoría de las víctimas, dijo, eran actores de Hollywood y cantantes de K-pop surcoreanos.
Brittany Spanos, escritora senior de Rolling Stone que imparte un curso sobre Swift en la Universidad de Nueva York, dice que los fans de Swift se movilizan rápidamente en apoyo de su artista, especialmente aquellos que toman su fandom muy en serio y en situaciones de irregularidades.
“Esto podría ser un gran problema si realmente lo lleva ante los tribunales”, dijo.
Spanos dice que el problema de la pornografía profundamente falsa se alinea con otros que Swift ha tenido en el pasado, señalando su demanda de 2017 contra un DJ de una estación de radio que supuestamente la manoseó; Los jurados concedieron a Swift 1 dólar por daños y perjuicios, una suma que su abogado, Douglas Baldridge, llamó “un único dólar simbólico, cuyo valor es inconmensurable para todas las mujeres en esta situación” en medio del movimiento MeToo. (La demanda de 1 dólar se convirtió en tendencia a partir de entonces, como en la contrademanda de Gwyneth Paltrow en 2023 contra un esquiador).
Cuando se le contactó para comentar sobre las imágenes falsas de Swift, X dirigió a The Associated Press a una publicación de su cuenta de seguridad que decía que la compañía prohíbe estrictamente compartir imágenes de desnudos no consensuados en su plataforma. La compañía también ha reducido drásticamente sus equipos de moderación de contenido desde que Elon Musk se hizo cargo de la plataforma en 2022.
“Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas”, escribió la compañía en la publicación X el viernes por la mañana. “Estamos monitoreando de cerca la situación para asegurarnos de que cualquier otra infracción se aborde de inmediato y se elimine el contenido”.
Mientras tanto, Meta dijo en un comunicado que condena enérgicamente “el contenido que ha aparecido en diferentes servicios de Internet” y ha trabajado para eliminarlo.
“Continuamos monitoreando nuestras plataformas para detectar este contenido infractor y tomaremos las medidas apropiadas según sea necesario”, dijo la compañía.
Un representante de Swift no respondió de inmediato a una solicitud de comentarios el viernes.
Allen dijo que los investigadores tienen un 90% de confianza en que las imágenes fueron creadas mediante modelos de difusión, que son un tipo de modelo de inteligencia artificial generativa que puede producir imágenes nuevas y fotorrealistas a partir de indicaciones escritas. Los más conocidos son Stable Diffusion, Midjourney y DALL-E de OpenAI. El grupo de Allen no intentó determinar la procedencia.
Open AI dijo que cuenta con salvaguardas para limitar la generación de contenido dañino y “rechazar solicitudes que soliciten el nombre de una figura pública, incluida Taylor Swift“.
Microsoft, que ofrece un generador de imágenes basado parcialmente en DALL-E, dijo el viernes que estaba en el proceso de investigar si su herramienta fue mal utilizada. Al igual que otros servicios comerciales de inteligencia artificial, dijo que no permite “contenido íntimo para adultos o no consensuado, y cualquier intento repetido de producir contenido que vaya en contra de nuestras políticas puede resultar en la pérdida de acceso al servicio”.
El Independiente/Redacción Foto: EFE