En un mundo donde la inteligencia artificial ya es capaz de borrar marcas de agua de un vídeo, clonar la cara de un político parece (y es) pan comido. OpenAI, la empresa detrás de ChatGPT, ha esbozado un plan para evitar que sus herramientas se utilicen para difundir desinformación electoral en un 2024 muy importante, políticamente hablando.

No sólo por las elecciones estadounidenses (en las que Donald Trump comienza a perfilarse como posible candidato) sino porque también más de 50 países celebrarán elecciones generales. Sin duda, una prueba de fuego en la que la inteligencia artificial podría mostrar su mejor cara. Y también la peor (en forma de fake).

A continuación, en Diario IA te mostramos algunos ejemplos de usos maliciosos de la IA en campañas políticas, y te explicamos qué pretende hacer OpenAI al respecto.

Relacionado: Este personaje de GTA V no está dispuesto a que la IA le robe la voz

¿Cómo pretende OpenAI limitar el uso de la IA en elecciones políticas?

Las salvaguardias que OpenAI ha expuesto en su web esta semana son una suerte de prohibiciones viejas y nuevas para evitar que los candidatos y partidos políticos pueden crear textos e imágenes con IA en cuestión de segundos.

Uno de los aspectos más destacados es que no se permitirá a los usuarios crear aplicaciones para campañas políticas o grupos de presión, o que puedan disuadir a la gente de participar en procesos democráticos, como desalentar el voto. OpenAI tampoco permite la creación de chatbots que simulen ser personas reales. Es posible que tú seas capaz de darte cuenta de que el vídeo que te mostramos a continuación es un deepfake. Pero, ¿y tu madre? ¿y tu abuela?:

Cada vez es más difícil distinguir la realidad de la inteligencia artificial generativa, también en política

Puede parecer una tontería, pero no lo es. Como acabas de ver en el vídeo de arriba, el primer ministro del Reino Unido, Rishi Sunak, protagonizó un centenar de anuncios en Facebook para promocionar una estafa supuestamente anunciada por la BBC. Evidentemente, ni el político ni la cadena de televisión estaban implicados en esta promoción (un deepfake bastante cutre orquestado por usuarios de 23 países, entre ellos Turquía, Filipinas, Malasia o EE. UU.).

Esto no bastó para que alrededor de medio millón de personas vieran el anuncio, que estuvo publicado en Facebook durante un mes, a pesar de incumplir claramente las directrices de la red social, según afirma este estudio de Fenimore Harper.

Rishi sunak ai estafa scam bbc inversion
Página falsa de la BBC con el vídeo del deepfake del primer ministro británico promocionando una oportunidad de inversión.

En febrero del año pasado, los discursos falsos de Joe Biden alcanzaron tanta popularidad en redes que la Rolling Stone les dedicó un reportaje. El Gobierno actual de la Casa Blanca se ha mostrado muy preocupado por el creciente uso de deepfakes generados con inteligencia artificial. Y no es para menos.Imagen falsa generada con IA de Donald Trump siendo arrestado

En Estados Unidos ha habido casos significativos de políticos que han utilizado o han sido protagonistas de campañas con contenido falso generado por inteligencia artificial.

Uno de los más sonados recientemente ha sido la divulgación de imágenes falsas del arresto del expresidente Donald Trump, generadas mediante inteligencia artificial en marzo de 2023.

Además, el propio Partido Republicano publicó un video generado por inteligencia artificial en respuesta al anuncio de Joe Biden sobre su intención de reelección, presentando una visión sombría del futuro si Biden fuera reelegido. Este material incluía imágenes de guerras y hasta de China invadiendo Taiwán​​​​​​.

Imagen hecha con IA por Justin T. Brown en la que Joe Biden le es infiel a su esposa con otra mujer
Imagen hecha con IA por Justin T. Brown en la que Joe Biden le es infiel a su esposa con otra mujer.

Otro caso notable fue el de un artista de sátira política, Justin T. Brown, que usó la herramienta de IA Midjourney (de la que ha sido baneado de por vida) para crear imágenes de políticos como Joe Biden, Donald Trump, Barack Obama, entre otros, engañando a sus parejas. Estas imágenes, aunque falsas, generaron una amplia discusión sobre los riesgos y la regulación de la inteligencia artificial​​.

Además, desde una perspectiva más amplia, la inteligencia artificial ha comenzado a desempeñar un papel importante en la publicidad política, ofreciendo la capacidad de generar mensajes persuasivos y específicos para audiencias concretas. Esto ha permitido a las campañas políticas adaptar sus mensajes a grupos y subgrupos de votantes de manera más eficiente, lo cual es particularmente útil para campañas con recursos limitados​​.

El futuro de los credenciales de contenido y sus variantes

OpenAI también está trabajando en diferentes iniciativas de autenticación para ayudar a dejar claro cuándo una imagen ha sido fabricada. Para ello, a principios de este año, OpenAI implementará las credenciales digitales de la Coalition for Content Provenance and Authenticity, similares a la iniciativa del sello CR (Content Credentials) lanzada por Adobe y otras empresas el año pasado.

Relacionado: La primera cámara con Content Credentials ‘sólo’ cuesta 9000 dólares

A través de estas credenciales, los usuarios podrán ver detalles sobre la procedencia del contenido utilizando criptografía en imágenes generadas por DALL-E 3. OpenAI también está experimentando con una nueva herramienta para detectar imágenes generadas por DALL-E 3, que ya está viendo resultados prometedores.

La empresa también ha revelado que está trabajando para dar a ChatGPT acceso a noticias en tiempo real de todo el mundo, con atribuciones y enlaces, para combatir la desinformación.

En EE. UU., cuando los usuarios pidan a ChatGPT información sobre el voto, el chatbot les dirigirá automáticamente a CanIVote.org, un sitio autorizado de información sobre el voto en EE.UU. en el que los usuarios pueden encontrar información sobre si están registrados para votar, dónde votar y mucho más.

Es importante señalar que muchas de estas precauciones aún no se han puesto en práctica, por lo que es esencial ser cauteloso al consumir noticias electorales y verificar siempre las fuentes de cualquier información que se encuentre en la web.

Puedes leer el post completo de OpenAI en este enlace.