Encuentran el que sería el origen de las ‘deepfake’ de Taylor Swift hechas con IA

Ya se habría revelado, de dónde se originaron las ‘deepfake’ de Taylor Swift, pues se habría realizado por inteligencia artificial por un “reto” de un sitio web de imágenes.
Se crearon imágenes sugerentes falsas de la cantante. | Fuente: Difusión

Según lo que ha resaltado una analista, al parecer existió un “reto” en un sitio web de imágenes llamado ‘4Chan’, en donde querían burlar las medidas de seguridad impuestas para la generación de contenido con inteligencia artificial. Sin embargo, la imagen de Taylor Swift se vio manchada por las ‘deepfake’.

Te recomendamos

¿Cómo surgieron las imágenes falsas?


Las ‘deepfake’ o imágenes sugerentes de Taylor Swift, se difundieron hace más de una semana en diferentes redes sociales y finalmente, ya se tendría el origen de cómo inició esta polémica situación. Al parecer se originó por un “reto”, en el sitio web ‘4Chan’, en donde se comparten imágenes anónimas.

Fue así que la compañía de análisis de redes sociales, Graphika, encontró su origen de las ‘deepfake’ de Taylor Swift. De acuerdo con lo que revelaron, el “reto” se basó en quebrar los mecanismos de seguridad diseñados para evitar la generación de contenido sugerente, con la ayuda de la inteligencia artificial. 

Cabe resaltar que un ‘deepfake’ es un archivo de video, imagen o audio que ha sido manipulado utilizando técnicas de inteligencia artificial, para hacerlo parecer verdadero cuando no lo es.

Durante varias semanas, los usuarios de ‘4Chan’ participaron para pasar los filtros en servicios populares como DALL-E de OpenAI y Microsoft Designer, con el único objetivo de crear ‘deepfake’ con material sugerente de celebridades, como fue el caso de Taylor Swift.

¿Qué más explicaron sobre la situación?


De acuerdo con lo que explicó Christina López, analista senior de Graphika, los ‘deepfake’ se originaron en ‘4Chan’ a inicios de enero, para luego pasar a la plataforma de Telegram y finalmente a X, donde eventualmente fueron bloqueadas.

“Si bien las imágenes porn*gráficas de Taylor Swift han llamado la atención del público masivo respecto a la generación de imágenes íntimas con IA sin consentimiento, ella está lejos de ser la única víctima”, detalló la especialista.

Luego que la publicación tecnológica 404 Media mostrara lo fácil que era sortear las barreras de seguridad de Microsoft, para crear las ‘deepfake’ de Taylor Swift, la compañía reforzó algunas de esas restricciones.

“En la comunidad de 4chan donde estas imágenes se originaron, no es siquiera la figura pública más afectada. Esto muestra que cualquiera puede ser victimizado de esta manera, desde celebridades globales hasta escolares”, añadió poco después.

Ver noticia completa