Los hay que ya saben (y muy bien) cómo estafar con inteligencia artificial. Pero a gran escala. Faltaba una casilla por marcar dentro del saco de comparaciones que se han hecho del actual boom IA con la pasada fiebre de Bitcoin y las criptomonedas: la de las estafas y robos multimillonarios perpetrados con dicha tecnología.

Hasta hoy. A continuación, en Diario IA te contamos cómo es posible que una compañía haya perdido 25 millones de dólares por culpa de un timo para el que sólo ha sido necesario utilizar inteligencia artificial. Y astucia.

Cómo estafar con inteligencia artificial, deepfakes y paciencia

Un artículo del periódico South China Morning Post titulado «Todo el mundo parecía real»: la oficina de Hong Kong de una multinacional pierde 200 millones de dólares después de que unos estafadores falsificaran una reunión en vídeo ha revelado que una gran empresa (cuyo nombre no ha trascendido) ha perdido 200 millones de dólares de Hong Kong (25,6 millones de dólares estadounidenses), debido a una sofisticada estafa con tecnología de vídeo deepfake.

La estafa consistió en una videoconferencia en la que aparecía una versión recreada digitalmente del director financiero de la empresa, junto con otros empleados, que también eran visibles en el vídeo en directo, mientras daban instrucciones a un empleado para que transfiriera fondos.

Los deepfakes utilizan herramientas de IA para crear vídeos o grabaciones de audio falsos muy convincentes, lo que plantea importantes dificultades a particulares y organizaciones a la hora de discernir el contenido real del fabricado. Para realizar dicha sustitución de rostros y voz basta con entrenar a la inteligencia artificial con unos pocos minutos de grabaciones.

Una vez la IA tenga información suficiente del rostro en distintos ángulos y expresiones, así como la voz con distintas palabras y entonaciones, está lista para crear una réplica fidedigna del original.

Este incidente es el primero de este tipo en Hong Kong (y del mundo, con semejante magnitud de dinero robado), en el que se ha estafado una gran suma de dinero y se ha utilizado la tecnología deepfake para simular una videoconferencia entre varias personas en la que todos los participantes (excepto la víctima) eran personas reales cuyo rostro y voces eran modificado en directo mediante inteligencia artificial.

Los estafadores fueron capaces de replicar de forma convincente la apariencia y las voces de las personas objeto de la estafa utilizando imágenes de vídeo y audio disponibles públicamente. La policía de Hong Kong está investigando el caso, pero aún no se han producido detenciones.

La estafa se descubrió inicialmente tras un intento de phishing, cuando un empleado del departamento financiero de la sucursal de Hong Kong de la empresa recibió un correo supuestamente del director financiero de la empresa con sede en el Reino Unido, dándole instrucciones para ejecutar una transacción secreta.

A pesar de las dudas iniciales, el empleado se convenció lo suficiente por la presencia del director financiero y otros en una videollamada en grupo para realizar 15 transferencias por un total de 200 millones de dólares de Hong Kong a cinco cuentas bancarias diferentes de Hong Kong. Las autoridades se dieron cuenta de la estafa una semana después, lo que dio lugar a una investigación policial.

El robo de alta tecnología subraya la creciente preocupación por los nuevos usos de la tecnología de IA, que ha sido objeto de atención recientemente debido a incidentes como la difusión de imágenes explícitas falsas de la superestrella del pop Taylor Swift. En el último año, los estafadores han estado utilizando la tecnología deepfake de audio para estafar a la gente haciéndose pasar por seres queridos en apuros.

El superintendente en funciones Baron Chan Shun-ching, de la policía de Hong Kong, destacó la estrategia del estafador de no entablar contacto directo con la víctima más allá de pedirle que se presentara, lo que hacía más convincente la estafa.

La policía ha ofrecido consejos para verificar la autenticidad de las personas en las videollamadas, como pedirles que muevan la cabeza o respondan a preguntas que confirmen su identidad, especialmente cuando se trata de solicitudes de transferencia de dinero. Otra posible solución a las estafas de deepfake en entornos corporativos es equipar a cada empleado con un par de claves cifradas, estableciendo la confianza mediante la firma de claves públicas en reuniones presenciales. Posteriormente, en las comunicaciones a distancia, esas claves firmadas podrían utilizarse para autenticar a las partes dentro de la reunión.

Un método mucho más sencilllo y eficaz, también recomendado para evitar estafas familiares, es el uso de una palabra secreta que sólo conozcan los miembros de la familia. Así podría haberse evitado el disgusto esta madre de una joven de 15 años de Arizona (EE. UU.) que creyó que su hija había sido secuestrada después de recibir una llamada suya por teléfono generada por inteligencia artificial.