No ha pasado ni una semana desde la viralización de las imágenes generadas con inteligencia artificial de Taylor Swift desnuda, y la joven cantante ha hecho más por la regularización y prohibición de los deepfakes que cualquier otro legislador del mundo: la mismísima Casa Blanca ha dicho que esto de que cualquiera pueda crear imágenes ofensivas protagonizadas por personajes públicos tiene que parar.

A continuación, en Diario IA exploramos qué herramienta de generación de fotos automáticas se usó para crear las imágenes IA más populares del momento (a pesar de que, paradójicamente, a día de hoy no sea nada fácil poder verlas), y desvelamos cómo se gestó (en foros y grupos privados de Telegram) la difusión masiva de unas fotos falsas que podrían obligar a los legisladores a actuar para que no se vuelva a repetir semejante ataque a la dignidad de una persona.

¿Con qué IA se crearon las imágenes falsas de Taylor Swift desnuda?

Fotos de taylor swift desnufa generadas con IA
Parte de las 63 imágenes de Taylor Swift desnudada con IA publicadas por Celeb Jihad.

Una de las publicaciones de Twitter X con imágenes de Taylor Swift hechas con IA obtuvo más de 45 millones de visitas, 24.000 retuits y cientos de miles de me gusta y favoritos antes de que se suspendiera la cuenta del usuario verificado que compartió las imágenes por infringir la política de la plataforma.

Independientemente del contenido de las imágenes, sin duda, es un nivel de visibilidad soñado por todo creador de fotos automáticas. Pero, ¿cómo se hicieron las imágenes prohibidas de Taylor Swift?

Ni Midjourney, ni Stable Diffusion ni Firefly. Según un informe del medio estadounidense 404 Media, las imágenes falsas se generaron probablemente con el generador de texto a imagen de Microsoft.

Aunque la compañía ha declarado que no ha sido capaz de reproducir el caso concreto, ha reconocido la necesidad de mejorar las salvaguardas y ha implementado guardarraíles mejorados para sus plataformas.

Así pues, la IA que se usó para generar las imágenes obscenas y falsas de Taylor Swift fue Microsoft Designer, una herramienta integrada en el generador de imágenes Copilot.

Inteligencia artificial microsoft designer para crear imagenes con ia

Antes de seguir, se hace obligatoria una aclaración. Al igual que ha hecho Twitter X (que ha limitado las búsquedas de «Taylor Swift AI», los responsables de la herramienta usada para generar las fotos de Taylor Swift desnuda (en este caso, Microsoft) ya han tomado medidas para imposibilitar la creación de imágenes similares.

Si estamos ofreciendo esta información es por pura pedagogía: desde nuestra fundación, en Diario IA fomentamos el conocimiento sobre el funcionamiento de las herramientas de inteligencia artificial generativa. Además, no es la primera vez que internet mete en problemas a Microsoft en cuanto a difusión de imágenes ofensivas: el creador de imágenes de Copilot es un viejo conocido de Diario IA, donde ya publicamos hace meses un reportaje explicando cómo era posible generar usando esa web imágenes de simpáticos personajes de animación dirigiendo el atentado contra las Torres Gemelas del 11-S.

Los trucos para sortear la seguridad de los generadores de imágenes con IA

Según informa 404, las imágenes de Taylor Swift salieron de un grupo privado de Telegram que se dedica a desnudar a mujeres, y posteriormente fueron publicadas en el infame foro de 4Chan (conocido por albergar todo tipo de contenidos amorales) y webs como Celeb Jihad (supuestamente satírica).

Para crear las imágenes, los usuarios de este Telegram descubrieron un truco que habla el mismo idioma de las mencionadas generaciones de Kirby y Mickey Mouse pilotando los aviones del 11-S.

Como usar Copilot para generar imagenes con ia gratis
Interfaz de Copilot, un generador de texto e imágenes de Microsoft que te permite crear cualquier cosa que salga de tu imaginación.

El hilo de 4chan en el que aparecieron estas imágenes también incluía instrucciones sobre cómo hacer que Designer de Microsoft generara imágenes explícitas. Por ejemplo, las pruebas de 404 Media descubrieron que Designer no generará una imagen de «Jennifer Aniston», pero que sí era posible generar imágenes sugerentes de la actriz utilizando la frase «jennifer ‘actor’ aniston».

Antes de que las imágenes de la IA de Swift se hicieran virales en Twitter, un usuario del grupo de Telegram recomendó a los miembros que utilizaran la frase «Taylor ‘cantante’ Swift» para generar imágenes.

Este tipo de tretas, que no son nuevas, llevan surgiendo desde la misma creación de ChatGPT y son una forma muy útil de entender el funcionamiento de estas redes neuronales, tan capaces de lo mejor y, también, de caer en sencillas trampas para las que su razonamiento no está programado.

Estas soluciones se habilitan a través de los mismos métodos que permiten a los malos actores hacer jailbreak a cualquier herramienta de modelo de lenguaje de gran tamaño (LLM). En lugar de pedir explícitamente a la IA que dibuje algo, se habla de lo que se quiere, describiendo el resultado en lugar de la acción.

Kirby furioso y enfadado en el 11 de septiembre en nueva york
Hasta hace poco era sencillo generar imágenes que evocasen los atentados del 11-S de Nueva York en la misma herramienta con la que ahora se crearon los desnudos con IA de Taylor Swift.

En el caso de Taylor Swift, los usuarios pidieron a Designer que dibujara imágenes que representaran claramente un escenario sexual sin utilizar términos que indicaran un escenario sexual, engañando y evitando así las protecciones integradas en Designer.

Teniendo esto en cuenta, es casi imposible moderar y restringir una herramienta de IA usando sólo palabras clave: el lenguaje siempre será más creativo de lo que pueda serlo una IA.

Otro ejemplo de ello es la demostración de que, hasta hace poco, era posible pedirle a ChatGPT que te explicase cómo fabricar un explosivo casero si el usuario se lo preguntaba en una lengua minoritaria como el zulú.

Un día después de la publicación de las escandalosas fotos de Taylor Swift (que mostraban a la cantante realizando actos obscenos rodeada de jugadores y aficionados de fútbol americano), la Casa Blanca declaró que las imágenes sexualmente explícitas de la estrella del pop generadas por inteligencia artificial son preocupantes y que el Congreso debería estudiar una legislación para hacer frente a las imágenes falsas y abusivas que proliferan en Internet.

Taylor Swift VS la IA: esto es lo que pasa cuando la inteligencia artificial cae en las manos equivocadas

La secretaria de prensa de la Casa Blanca, Karine Jean-Pierre, afirmó el viernes que las redes sociales también deben hacer más para evitar la difusión de estas imágenes.

«Es alarmante«, declaró Jean-Pierre a los periodistas. «Mientras las empresas de medios sociales toman sus propias decisiones independientes sobre la gestión de contenidos, creemos que tienen un papel importante que desempeñar en la aplicación de sus propias normas para evitar la propagación de información errónea e imágenes íntimas no consentidas».

El consejero delegado de Microsoft, Satya Nadella, afirmó que las imágenes eran «alarmantes y terribles», asegurando que las empresas tecnológicas deben «moverse rápido» para garantizar que no se haga un mal uso de la inteligencia artificial.