¿Cómo se está regulando la IA en el mundo? Con la Ley de Inteligencia Artificial de la UE avanzando hacia su forma definitiva, en los últimos meses han aparecido directrices para regular la IA en muchas jurisdicciones. Incluso China ha puesto en marcha sus primeras normas reguladoras de la IA generativa.

A continuación nos sumergimos en un análisis mundial sobre cómo están intentando regular la IA los países más importantes del planeta.

Unión Europea: la Ley de Inteligencia Artificial, en la recta final

Regulacion de la inteligencia artificial en la union europea

La UE, que tiene un historial de aplicación de normas más estrictas en la industria tecnológica en comparación con otras regiones, ha estado trabajando desde 2021 para aprobar la Ley de IA, que sería la primera ley de IA en Occidente.

Desde que el Parlamento Europeo acordó su posición negociadora en junio, las negociaciones de la Ley de la IA han pasado al diálogo a tres bandas, una serie de debates informales entre la Comisión Europea, el Consejo de la UE y el Parlamento Europeo para llegar a un acuerdo sobre el borrador final que se someterá a votación.

Desde junio se han celebrado cinco rondas de diálogo tripartito (la última tuvo lugar esta semana) y, aunque normalmente no se informa de los avances de las negociaciones, el eurodiputado Dragoș Tudorache ha ofrecido esta semana una visión poco habitual del estado de las discusiones:

Desafíos para ultimar la Ley de IA de la UE

  1. El Consejo de la UE, que representa a los gobiernos de los Estados miembros, quiere más libertad de acción, mientras que el Parlamento es partidario de un enfoque más estricto para controlar el uso de la IA por parte de las autoridades.
  2. Aún no se ha llegado a un acuerdo sobre el tratamiento de los «modelos fundacionales«, modelos de aprendizaje automático para aplicaciones de uso más general. El tratamiento y la regulación de estos modelos no figuraban en el proyecto de ley original de la Comisión Europea, pero el Parlamento les ha dado más importancia, sobre todo por el auge de los grandes modelos lingüísticos (LLM), como GPT.
  3. El tercer punto de discordia se refiere a la «gobernanza y aplicación», incluidas las posibles multas. La cuarta y última cuestión se refiere a los detalles sobre la regulación de las aplicaciones de alto riesgo.

(Relacionado: ¿Cuál es el LLM más transparente?: suspenso general)

Los debates sobre la Ley de Inteligencia Artificial podrían retrasar la redacción final hasta 2024, pero todo podría estar terminado en enero de ese año: Tudorache admite que las discusiones pendientes podrían retrasar el borrador final hasta 2024, pero parece optimista en cuanto a que se alcanzarán compromisos y todo estará finalizado en enero de 2024.

Como era de esperar, la industria ha aprovechado la fase de diálogo a tres bandas para presionar al Consejo de la UE a fin de que suavice algunos elementos de la Ley de IA. En una carta abierta firmada por más de 150 ejecutivos, se afirma que el proyecto legislativo «pondría en peligro la competitividad y la soberanía tecnológica de Europa» y abriría «una brecha» con EE.UU.

Mientras tanto, España, que ocupa la Presidencia del Consejo Europeo desde julio, ha marcado un importante punto de inflexión al crear la primera agencia reguladora en un Estado miembro. Tendría sentido que otros Estados miembros siguieran este ejemplo, aunque los detalles de la Ley aún se estén negociando.

Reino Unido: política y cumbres

Regulacion de la inteligencia artificial en el reino unido

El Reino Unido, sede de empresas de IA como DeepMind, laboratorio de IA de Google, y Synthesia, fabricante de vídeos de IA, quiere evitar una legislación de mano dura que podría ahogar la innovación. La regulación se basaría en principios como la seguridad, la transparencia, la equidad y la responsabilidad, según informa Reuters.

El Gobierno británico también quiere desempeñar un papel clave en la regulación de la IA. «El Reino Unido ha sido durante mucho tiempo el hogar de las tecnologías transformadoras del futuro», ha dicho el primer ministro Rishi Sunak en un comunicado:»Para aprovechar plenamente las extraordinarias oportunidades de la inteligencia artificial, debemos controlar y afrontar los riesgos para garantizar su desarrollo seguro en los próximos años».

El país planea dividir la responsabilidad de gobernar la IA entre los reguladores existentes de derechos humanos, salud y seguridad, y competencia, en lugar de crear un nuevo organismo dedicado a la tecnología, lo que difiere de los reguladores estadounidenses que han debatido la creación de un organismo independiente para supervisar la concesión de licencias de modelos de IA de alto riesgo. Los académicos han criticado el regulador independiente, afirmando que llevará tiempo crear un organismo completamente nuevo.

El Gobierno del Reino Unido (aunque rechaza el planteamiento de la UE) no ha desaprovechado ninguna ocasión para presentarse públicamente como el «líder en regulación de la IA», al tiempo que promociona ampliamente un enfoque de la IA basado en la innovación.

El Gobierno organizó una cumbre sobre la seguridad de la IA en Bletchley Park que tuvo lugar la semana que viene, los días 1 y 2 de noviembre. Puedes ver nuestro resumen con las 5 claves más importantes de la reunión en este reportaje especial.

(Relacionado: Las 5 claves de la UK AI Safety Summit)

En vísperas del evento, en un discurso pronunciado el 26 de octubre, el primer ministro Rishi Sunak también anunció planes para un «Instituto de Seguridad de la IA» para «abordar las amenazas potenciales» de la IA, al tiempo que subrayó que la regulación de la IA «no debe precipitarse». No se espera que aparezca pronto un proyecto de ley o reglamento codificado, y es improbable que se presente antes de las elecciones previstas para el año que viene.

China: cómo abordar la IA generativa

Regulacion de la inteligencia artificial en china

En China, los proveedores de IA generativa deben someterse a una evaluación de seguridad, y las herramientas de IA deben adherirse a los valores socialistas. Pero la tecnología de IA generativa desarrollada únicamente para su uso fuera del país está exenta de las normas. Empresas tecnológicas chinas como Baidu, Tencent y Huawei tienen centros de investigación y desarrollo en Silicon Valley.

Para competir con ChatGPT de OpenAI, las mayores empresas de Internet del país (Alibaba, Baidu y JD) han anunciado sus propios chatbots de IA. En el pasado, China ha afirmado que quería ser el líder mundial en IA para 2030 y ha presentado planes para comercializar la IA en una serie de áreas, desde ciudades inteligentes hasta usos militares, según ha informado CNBC.

En julio, la Administración del Ciberespacio de China (CAC) publicó su versión final de las «Medidas provisionales para la gestión de los servicios de inteligencia artificial generativa«. Será interesante ver hasta qué punto China y Europa están en sintonía.

El reglamento entró en vigor el 15 de agosto de 2023 y, como su título indica, trata principalmente de la gestión de la IA generativa. A pesar de su título «provisional», el reglamento detallado abarca una amplia gama de cuestiones como:

Obligaciones para el desarrollo y la formación de modelos

  • Curación de los datos de entrenamiento y requisitos para las evaluaciones de calidad
  • Consideraciones sobre la propiedad intelectual
  • Responsabilidad por los productos
  • Licencias administrativas para los proveedores de servicios de IA generativa

Parece haber bastantes similitudes con las obligaciones y requisitos previstos para la IA generativa esbozados en la próxima Ley de IA de la UE, y será interesante ver hasta qué punto China y Europa se mantienen sincronizadas.

Estados Unidos: autorregulación y regulación estatal

Regulacion de la inteligencia artificial en estados unidos

Hasta ahora, el Gobierno de EE.UU. ha dejado que las empresas tecnológicas crearan sus propias salvaguardias en torno a la IA. Pero los legisladores afirman que la regulación de la IA es necesaria. Han celebrado múltiples reuniones en 2023 con las principales empresas de IA, desde OpenAI hasta Nvidia. Los legisladores han discutido asuntos clave como los requisitos de licencia y certificación de modelos de IA de alto riesgo cuando sea necesario.

Mientras tanto, agencias federales como la Oficina de Protección Financiera del Consumidor, el Departamento de Justicia, la Comisión para la Igualdad de Oportunidades en el Empleo y la Comisión Federal de Comercio han dicho que muchas aplicaciones de IA ya están sujetas a las leyes existentes.

El 20 de junio, un grupo bipartidista de legisladores presentó un proyecto de ley para crear una comisión centrada en la regulación de la inteligencia artificial. La comisión propuesta «revisaría el enfoque actual de Estados Unidos sobre la regulación de la IA», haría recomendaciones sobre cualquier nueva oficina o estructura gubernamental que pueda ser necesaria y desarrollaría un marco basado en el riesgo para la IA.» Sin embargo, con el estancamiento actual en la Cámara de Representantes de Estados Unidos no se espera que el proyecto de ley avance pronto.

Mientras tanto, la Casa Blanca publicó una declaración sobre la autorregulación (voluntaria) de la IA en julio firmada por las «siete principales empresas de IA» en la que las empresas se comprometen (entre otras cosas) a:

  • Pruebas de seguridad internas y externas antes del lanzamiento de un producto
    compartir información relacionada con los riesgos de la IA en todo el sector y con los gobiernos, la sociedad civil y el mundo académico
  • Informar públicamente sobre las capacidades, limitaciones y áreas de uso apropiado e inapropiado de sus sistemas de IA.

Como sucede con toda iniciativa voluntaria (como la de los Content Credentials o el detector de imágenes hechas con IA de Google), queda por ver hasta qué punto se supervisará este código de conducta autorregulado y hasta qué punto influirá el gobierno en su «aplicación».

Nueva normativa de la ciudad de Nueva York

Aunque no se ha avanzado mucho a nivel federal, algunos estados están aplicando su propia normativa relacionada con la IA: la nueva normativa de la ciudad de Nueva York sobre el uso de IA en las decisiones de contratación y promoción entró en vigor en julio.

La ley se centra de forma limitada en la discriminación racial y de género debida al sesgo algorítmico, pero ha recibido algunas críticas por dejar fuera otras formas de discriminación, como las basadas en la edad o la discapacidad.

India y la regulación de la IA: señales contradictorias

Regulacion de la inteligencia artificial en india

La India parece ser un caso interesante en lo que respecta a la regulación de la IA, ya que envía señales muy contradictorias sobre hacia dónde se dirigirá. En abril de este año, el Ministerio de Electrónica calificó la IA de «facilitador de la economía digital y el ecosistema de innovación» y se mostró abiertamente en contra de la regulación de la secotor¹².

Sin embargo, sólo un mes después, el ministro de Industria, Rajeev Chandrasekhar, declaró que la India «regulará [los servicios de IA] a través del prisma del daño al usuario» y que el Gobierno indio tiene sus «propias opiniones sobre cómo la IA debe tener guardarraíles» al debatir el proyecto de ley sobre la India digital.

Más tarde, en agosto, el primer ministro Modi pidió «un marco global para la expansión de la inteligencia artificial ética», lo que podría indicar un cambio en la postura del Gobierno sobre la regulación.

Parte de este cambio se reflejó en un nuevo documento de consulta de la Autoridad Reguladora de las Telecomunicaciones de la India (TRAI) en julio, en el que se afirmaba que el Centro debería crear una «autoridad legal nacional para regular la IA» en un «marco basado en el riesgo», lo que suena similar a la pendiente Ley de IA de la UE.

Canadá: a la espera de la AIDA

Regulacion de la inteligencia artificial en canada

A la espera de la Ley de Inteligencia Artificial y Datos (AIDA), que se presentó como parte del proyecto de ley C-27 en junio del año pasado, el Gobierno canadiense publicó en septiembre el «Código de Conducta Voluntario sobre el Desarrollo y la Gestión Responsables de los Sistemas Generativos Avanzados de Inteligencia Artificial».

El nuevo código voluntario se basa en los comentarios recibidos durante el proceso de consulta sobre la elaboración del «Código canadiense de prácticas para los sistemas de IA generativa, consulta que se cerró en septiembre.

Australia: documentos de debate y reacciones

Regulacion de la inteligencia artificial en australia

El Gobierno federal australiano publicó en junio un documento de debate que ofrece una visión general de la gobernanza actual de la IA en Australia y de la evolución internacional en relación con la IA, y solicita opiniones sobre la necesidad de nuevas respuestas en materia de gobernanza y reglamentación.

El amplio documento de debate aborda los siguientes temas y solicita opiniones al respecto:

  • Sesgo algorítmico
  • Evaluación de riesgos y responsabilidad
  • Peligro de monopolios y propiedad de los conjuntos de datos
    Transparencia

Sin embargo, como parte de esa consulta, el «Tech Council of Australia» (Consejo Tecnológico de Australia), un grupo de presión de la industria, expresó su oposición tanto a una «Ley de IA al estilo de la Unión Europea» como a un regulador de la IA. Aunque admiten que son necesarias «barandillas y regulaciones» para la IA, se pronuncian en contra de establecer un regulador australiano especializado en IA y «no apoyan seguir el camino de la UE en el desarrollo de una Ley de IA independiente». Es interesante observar que tanto Google como Microsoft son miembros del Tech Council.

Conclusión

Mientras que la Ley de IA de la UE está cada vez más cerca y sigue siendo la legislación más ambiciosa en lo que respecta a la IA, varios países (como China) han implementado regulaciones temporales para tratar especialmente los servicios de IA regenerativa, mientras que otros (como Canadá) se centran en códigos de conducta voluntarios mientras se redacta la regulación.

Este artículo es una traducción, adaptación y ampliación de Where the World is on AI Regulationpublicado en Medium por Wolfgang Hauptfleisch.