La Unión Europea ha anunciado la primera ley del mundo en materia de inteligencia artificial. El acuerdo, logrado tras un intenso debate entre el Parlamento Europeo y los países miembros (de casi 24 horas el jueves y unas negociaciones ininterrumpidas de 15 horas el viernes), busca impulsar a la industria europea frente a gigantes como China y Estados Unidos.

Pero no tan rápido. El texto aún tiene que ser ratificado (previsiblemente antes de que acabe al año) y podría entrar en vigor, como pronto, en 2025. Ambas partes están dispuestas a discutir los detalles en los próximos días, lo que podría cambiar la forma de la legislación final.

Relacionado: Todo lo que necesitas saber sobre la francesa Mistral, el futuro rival europeo de ChatGPT

¿En qué consiste la ley IA de la UE?

Con este acuerdo político, la UE se convierte en la primera gran potencia mundial en promulgar leyes que regulen la IA. Los negociadores del Parlamento Europeo y de los 27 países miembros del bloque superaron grandes diferencias sobre puntos controvertidos como la IA generativa y el uso policial de la vigilancia por reconocimiento facial para firmar un acuerdo político provisional sobre la Ley de Inteligencia Artificial del que conoceremos más detalles a lo largo de los próximos días.

«¡Trato hecho!», tuiteó el comisario europeo Thierry Breton poco antes de medianoche junto a un curioso gráfico que puedes ver a continuación: «La UE se convierte en el primer continente que establece normas claras para el uso de la IA», añadió.

Relacionado: Las 5 claves de la UK AI Safety Summit

El acuerdo de la ley prevé salvaguardias para la inteligencia artificial de uso general, la limitación del uso policial de los sistemas de identificación biométrica o la prohibición de la puntuación social y la IA utilizadas para manipular o explotar las vulnerabilidades de los usuarios. Te resumimos los puntos clave:

  • La ley de inteligencia artificial prohibirá los sistemas de categorización biométrica (por creencias políticas, religiosas, filosóficas o por orientación sexual o raza).
  • Los consumidores tendrían derecho a presentar reclamaciones y recibir explicaciones significativas, mientras que las multas por infracciones oscilarían entre 7,5 millones de euros o el 1,5% de la facturación y 35 millones de euros o el 7% de la facturación global.
  • También se establece la prohibición de los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales y televisión.
  • Prohibido el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.
  • Queda prohibido el social scoring (sistemas que puntúan a las personas en función de su comportamiento social o características personales).
  • Por último, se prohíben los sistemas que manipulan comportamiento humano y la IA usada para explotar las vulnerabilidades de las personas (por ejemplo, clasificación por edad o situación social o económica).

Si ha habido un punto que llama especialmente la atención es que la ley establece que los sistemas de inteligencia artificial generativa en los que se basan modelos como ChatGPT tendrán que cumplir criterios de transparencia, como especificar que si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial, así como garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

Relacionado: ¿Cómo se está regulando la inteligencia artificial en el mundo en 2023?

La UE se adelantó en la carrera mundial por la elaboración de los límites de la IA cuando presentó el primer borrador de su reglamento en 2021. Sin embargo, el reciente auge de la IA generativa ha hecho que los funcionarios europeos se hayan apresurado en actualizar una propuesta destinada a servir de modelo para todo el mundo.

La Ley de la IA se diseñó originalmente para mitigar los peligros de funciones específicas de la IA en función de su nivel de riesgo, de bajo a inaceptable. Pero los legisladores presionaron para ampliarla a los modelos básicos, los sistemas avanzados que sustentan servicios de IA de propósito general como ChatGPT y el chatbot Bard de Google.

Estados Unidos, el Reino Unido, China y coaliciones mundiales como el Grupo de las 7 principales democracias han lanzado sus propias propuestas para regular la IA, aunque todavía tienen que alcanzar a Europa.

Relacionado: EE. UU. firma junto a 17 países un documento para regular la IA (y que, en el fondo, no sirve para nada)

La Presidenta de la Comisión Europea, Ursula von der Leyen, declaró que las normas sobre IA proporcionarán un marco jurídico único para desarrollar una tecnología fiable que no atente contra la seguridad y los derechos fundamentales de las personas y las empresas.

En virtud del acuerdo, los modelos básicos más avanzados que planteen los mayores «riesgos sistémicos» serán objeto de un escrutinio adicional, que incluirá la obligación de revelar más información, como la potencia de cálculo utilizada para entrenar los sistemas.