Estados Unidos, Gran Bretaña y más de una docena de otros países acaban de presentar un documento que, según un alto funcionario estadounidense, es el primer acuerdo internacional detallado sobre cómo mantener la inteligencia artificial a salvo de actores deshonestos, presionando a las empresas para que creen sistemas de IA que sean «seguros por diseño».

Si bien no es nuestra intención posicionarnos a favor o en contra del aumento de la regulación internacional sobre la inteligencia artificial, en Diario IA tenemos una cosa clara: este documento carece de utilidad real alguna, pues todas sus cláusulas se basan en recomendaciones. Es decir, sugerencias que cada empresa y país será libre de seguir o no.

Relacionado: Estas son las 5 claves de la UK AI Safety Summit

¿En qué consiste el nuevo documento de Directrices para el desarrollo seguro de sistemas de IA?

El documento (20 páginas generosas en gráficos de relleno e iconos) presentado el domingo, está adscrito por 18 países que han acordado que las empresas que diseñen y utilicen IA deben desarrollarla y desplegarla de forma que los clientes y el público en general estén a salvo de usos indebidos.

El acuerdo no es vinculante y contiene sobre todo recomendaciones generales, como vigilar los sistemas de inteligencia artificial para evitar abusos, proteger los datos contra manipulaciones e investigar a los proveedores de software.

Además de Estados Unidos y Gran Bretaña, entre los 18 países firmantes de las nuevas directrices figuran Alemania, Italia, la República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur.

El marco aborda cuestiones como la forma de evitar que la tecnología de IA sea secuestrada por piratas informáticos e incluye recomendaciones como la de publicar modelos únicamente después de haber realizado las pruebas de seguridad adecuadas. No aborda cuestiones espinosas en torno a los usos apropiados de la IA, o cómo se recopilan los datos que alimentan estos modelos.

La directora de la Agencia de Ciberseguridad y Seguridad de las Infraestructuras de Estados Unidos, Jen Easterly, ha afirmado que es importante que tantos países se hayan sumado a la idea de que los sistemas de inteligencia artificial deben dar prioridad a la seguridad: «Esta es la primera vez que hemos visto una afirmación de que estas capacidades no deben centrarse únicamente en características geniales y en lo rápido que podemos sacarlas al mercado o en cómo podemos competir para abaratar costes».

Este acuerdo es la última de una serie de iniciativas (pocas de ellas contundentes) de gobiernos de todo el mundo para dar forma al desarrollo de la IA, cuyo peso se deja sentir cada vez más en la industria y la sociedad en general.

Relacionado: ¿Cómo se está regulando la inteligencia artificial en el mundo en 2023?

El auge de la IA ha suscitado numerosas preocupaciones, como el temor a que pueda utilizarse para perturbar el proceso democrático, acelerar el fraude o provocar una dramática pérdida de puestos de trabajo, entre otros perjuicios.

Europa va por delante de Estados Unidos en la regulación de la IA, y sus legisladores están elaborando normas al respecto. La Comisión Europea, el Parlamento Europeo y el Consejo de la UE se encuentran en estos momentos definiendo los términos de un futuro gran acuerdo que hace una semana fue esbozado por Francia, Alemania e Italia cuando presentaron un texto que apoya la «autorregulación obligatoria mediante códigos de conducta» para los llamados modelos básicos de IA, que están diseñados para producir una amplia gama de resultados. A diferencia de la noticia que nos ocupa hoy, dicho documento europeo sí contendría elementos de obligado cumplimiento.

¿Y Estados Unidos?

En los últimos meses, el gobierno de Biden ha presionado a los legisladores para que regulen la IA, pero el polarizado Congreso estadounidense ha avanzado poco en la aprobación de una normativa eficaz. En octubre, la Casa Blanca trató de reducir los riesgos de la IA para los consumidores, los trabajadores y los grupos minoritarios, reforzando al mismo tiempo la seguridad nacional con una nueva orden ejecutiva.


Puedes consultar íntegro el acuerdo Guidelines for secure AI
system development (Directrices para el desarrollo seguro de sistemas de IA
seguro) aquí.