Todo muere: es un hecho. Y, si el mundo no puede gestionar la actual carrera hacia la inteligencia artificial sobrehumana entre las grandes potencias, todo puede morir mucho antes de lo esperado.

¿Como será la IA en el futuro? (si es que nos queda uno)

El año 2022 fue testigo de una explosión de las capacidades de los sistemas de inteligencia artificial. La mayor parte de estos avances se han producido en la IA generativa: sistemas que producen contenidos novedosos de texto, imagen, audio o vídeo a partir de entradas humanas. En noviembre de 2022, la empresa estadounidense OpenAI sorprendió al mundo con la publicación del modelo de lenguaje ChatGPT (LLM). En marzo, lanzó una versión actualizada de ChatGPT con el modelo GPT-4, más potente. Microsoft y Google han hecho lo propio con Bing AI y Bard, respectivamente.

Más allá del mundo del texto, las aplicaciones generativas Midjourney, DALL-E y Stable Diffusion producen imágenes y vídeos de un realismo sin precedentes. Estos modelos han irrumpido rápidamente en la conciencia pública. La mayoría de la gente ha empezado a comprender que la IA generativa es una innovación sin parangón, un tipo de máquina que posee capacidades -la generación de lenguaje natural y la producción artística- que durante mucho tiempo se consideraron dominios sacrosantos de la capacidad humana.

(Relacionado: Cómo crear vídeos con IA gratis: Top 10 herramientas)

GPT-4: «sorprendentemente cerca del rendimiento de nivel humano»

Pero la IA generativa es sólo el principio. Un equipo de científicos especializados en IA de Microsoft ha publicado un estudio este año en el que afirman que Chat GPT-4 -posiblemente la LLM más sofisticada hasta la fecha- está mostrando las «chispas» de la inteligencia general artificial (AGI), una IA que es tan inteligente -o más- que los humanos en todas las áreas de la inteligencia, y no sólo en una tarea.

Según el estudio, «además de dominar el lenguaje, GPT-4 puede resolver tareas novedosas y difíciles que abarcan las matemáticas, la codificación, la visión, la medicina, el derecho y la psicología, entre otras, sin necesidad de ningún estímulo especial».

En estas múltiples áreas de la inteligencia, el GPT-4 está «sorprendentemente cerca del rendimiento de nivel humano«. En resumen, GPT-4 parece presagiar un programa capaz de pensar y razonar como un ser humano. La mitad de los expertos en IA encuestados esperan una AGI en los próximos 40 años.

La AGI es el santo grial para las empresas tecnológicas que se dedican al desarrollo de la IA -principalmente las líderes en este campo, OpenAI y DeepMind, filial de Google- debido a los insondables beneficios y la gloria histórica mundial que supondría ser los primeros en desarrollar una inteligencia artificial de nivel humano.

El sector privado no es el único actor relevante

Dado que el liderazgo en IA ofrece ventajas tanto en competitividad económica como en destreza militar, las grandes potencias -principalmente Estados Unidos y China- se apresuran a desarrollar sistemas avanzados de IA. Se han vertido ríos de tinta sobre los riesgos de las aplicaciones militares de la IA, que tienen el potencial de remodelar los dominios estratégico y táctico por igual al potenciar los sistemas de armas autónomas, las ciberarmas, el mando y control nuclear y la recopilación de inteligencia. Muchos políticos y planificadores de defensa de ambos países creen que el ganador de la carrera de la IA se asegurará el dominio mundial.

Pero las consecuencias de esta carrera son potencialmente mucho más trascendentales que quién gane la hegemonía mundial. Es probable que la percepción de una «carrera armamentística» de la IA acelere el ya arriesgado desarrollo de los sistemas de IA. La presión por superar a los adversarios ampliando rápidamente las fronteras de una tecnología que aún no comprendemos ni controlamos del todo -sin esfuerzos proporcionales para hacer que la IA sea segura para los humanos- puede suponer un riesgo existencial para la existencia de la humanidad.

¿Carrera armamentística?

Los peligros de las carreras armamentísticas están bien establecidos en la historia. A finales de la década de 1950, los responsables políticos estadounidenses empezaron a temer que la Unión Soviética superara a Estados Unidos en el despliegue de misiles con capacidad nuclear. Esta ostensible «brecha de misiles» empujó a Estados Unidos a intensificar su desarrollo de misiles balísticos para «alcanzar» a los soviéticos.

A principios de la década de 1960, quedó claro que la brecha de los misiles era un mito. Estados Unidos, de hecho, lideraba a la Unión Soviética en tecnología de misiles. Sin embargo, la mera percepción de ir por detrás de un adversario contribuyó a una desestabilizadora acumulación de capacidades nucleares y de misiles balísticos, con todos los peligros asociados de accidentes, errores de cálculo y escalada.

La lógica de la brecha de misiles vuelve a asomar hoy su fea cabeza, esta vez con respecto a la inteligencia artificial, que podría ser más peligrosa que las armas nucleares. Los esfuerzos de China en el campo de la inteligencia artificial suscitan temores entre los funcionarios estadounidenses, preocupados por la posibilidad de quedarse rezagados. Los nuevos saltos de China en el campo de la inteligencia artificial producen inexorablemente oleadas de advertencias de que China va camino de dominar este campo.

La realidad de esta supuesta «brecha de IA» es complicada. Pekín parece estar a la cabeza de Estados Unidos en innovación militar en IA. China también es líder mundial en citas de revistas académicas sobre IA y cuenta con una formidable base de talentos. Sin embargo, cuando se trata de la búsqueda de la inteligencia artificial, China parece ir a la zaga. Los LLM de las empresas chinas van de 1 a 3 años por detrás de sus homólogos estadounidenses, y OpenAI marca el ritmo de los modelos generativos. Además, los controles de exportación de 2022 de la administración Biden sobre chips informáticos avanzados impiden a China acceder a un requisito previo de hardware clave para construir IA avanzada.

Sin embargo, la cuestión más importante no es quién va «por delante» en la carrera de la IA. La mera percepción de una «carrera armamentística» puede empujar a empresas y gobiernos a tomar atajos y evitar la investigación y la regulación en materia de seguridad. Para la IA, una tecnología cuya seguridad depende de un desarrollo lento, constante, regulado y colaborativo, una carrera armamentística puede ser catastróficamente peligrosa.

El problema de la alineación

A pesar de los espectaculares éxitos de la IA, el ser humano sigue sin poder predecir o controlar de forma fiable sus resultados y acciones. Mientras que la investigación centrada en las capacidades de la IA ha producido avances asombrosos, no puede decirse lo mismo de la investigación en el campo de la alineación de la IA, cuyo objetivo es garantizar que los sistemas de IA puedan ser controlados por sus diseñadores y hacer que actúen de forma compatible con los intereses de la humanidad.

Cualquiera que haya utilizado ChatGPT comprende esta falta de control humano. No es difícil burlar los controles del programa, y es demasiado fácil animar a los chatbots a decir cosas ofensivas. Cuando se trata de modelos más avanzados, incluso si los diseñadores son brillantes y benévolos, e incluso si la IA sólo persigue los objetivos finales elegidos por los humanos, sigue habiendo un camino hacia la catástrofe.

Consideremos el siguiente experimento mental sobre cómo puede desplegarse la inteligencia artificial. Una inteligencia de nivel humano o sobrehumano es programada por sus creadores humanos con un objetivo definido y benévolo, por ejemplo, «desarrollar una cura para el Alzheimer» o «aumentar la producción de clips de mi fábrica». La IA tiene acceso a un «entorno» limitado de instrumentos: por ejemplo, un laboratorio médico o una fábrica.

El problema de este despliegue es que, aunque los humanos pueden programar la IA para que persiga un fin último elegido, es inviable que los humanos puedan definir cada subobjetivo instrumental, o intermedio, que perseguirá la IA (pensemos en adquirir acero antes de poder fabricar clips).

La IA funciona a través del aprendizaje automático: se entrena con grandes cantidades de datos y «aprende», basándose en ellos, cómo producir los resultados deseados a partir de sus entradas. Sin embargo, el proceso por el que la IA conecta las entradas con las salidas -los cálculos internos que realiza «bajo el capó»- es una «caja negra». Los humanos no pueden entender con precisión lo que una IA está aprendiendo a hacer. Por ejemplo, una IA entrenada para «recoger fresas» puede haber aprendido a «recoger el objeto rojo más cercano» y, cuando se la libera en un entorno diferente, recoger tanto fresas como pimientos rojos. Hay muchos ejemplos más.

En resumen, una IA puede hacer precisamente aquello para lo que ha sido entrenada y, aun así, producir un resultado no deseado. Los medios para alcanzar los fines programados -creados por una inteligencia alienígena e incomprensible- podrían ser perjudiciales para los humanos. La IA «Alzheimer» podría secuestrar a miles de millones de seres humanos como sujetos de prueba. La IA «sujetapapeles» podría convertir toda la Tierra en metal para fabricar clips. Dado que el ser humano no puede predecir todos los medios posibles que podría emplear una IA ni «enseñarle» a realizar una acción determinada de forma fiable, es inviable programar cualquier resultado peligroso.

Si es lo suficientemente inteligente y capaz de derrotar a los humanos que se resistan, una IA podría acabar con la vida en la Tierra en su empeño por alcanzar su objetivo. Si se le diera el control del mando y control nuclear -como el sistema Skynet en Terminator– o el acceso a productos químicos y patógenos, la IA podría diseñar una catástrofe existencial.

¿Carrera armamentística o gobernanza alineada? Un compromiso arriesgado

¿Cómo afecta la competencia internacional a la cuestión técnica de la alineación? En pocas palabras, cuanto más rápido avance la IA, menos tiempo tendremos para aprender a alinearla. El problema de la alineación aún no está resuelto, ni es probable que se resuelva a tiempo sin un desarrollo más lento y consciente de la seguridad.

El miedo a perder una carrera armamentística tecnológica puede animar a empresas y gobiernos a acelerar el desarrollo y tomar atajos, desplegando sistemas avanzados antes de que sean seguros. Muchos científicos y organizaciones de IA de primera línea -entre ellos el equipo del laboratorio de seguridad Anthropic, Ajeya Cotra de Open Philanthropy, Demis Hassabis, fundador de DeepMind, y Sam Altman, CEO de OpenAI- creen que el desarrollo gradual es preferible al rápido porque ofrece a los investigadores más tiempo para incorporar características de seguridad a los nuevos modelos; es más fácil alinear un modelo menos potente que uno más potente.

China y la inteligencia artificial: un futuro un tanto aterrador

Además, el temor a que China «se ponga al día» puede poner en peligro los esfuerzos para promulgar medidas de gobernanza y regulación de la IA que podrían frenar el peligroso desarrollo y acelerar la alineación. Altman y el ex CEO de Google Eric Schmidt han advertido al Congreso de que la regulación frenará a las empresas estadounidenses en beneficio de China. Un alto ejecutivo de Microsoft ha utilizado el lenguaje de la brecha de los misiles soviéticos. La lógica es la siguiente: «La AGI es inevitable, así que Estados Unidos debería ser el primero». El problema es que, en palabras de Paul Scharre, «la tecnología de IA plantea riesgos no sólo para los que pierden la carrera, sino también para los que la ganan».

Del mismo modo, la percepción de una carrera armamentística puede impedir el desarrollo de un marco de gobernanza mundial sobre la IA. Puede surgir un círculo vicioso en el que una carrera armamentística impida acuerdos internacionales, lo que aumenta la paranoia y acelera esa misma carrera armamentística.

Las convenciones internacionales sobre la no proliferación de bombas y misiles nucleares y la prohibición multilateral de las armas biológicas fueron grandes éxitos de la Guerra Fría que desactivaron las carreras armamentísticas. Unas convenciones similares sobre la IA podrían disuadir a los países de desplegar rápidamente la IA en ámbitos más arriesgados en un esfuerzo por aumentar el poder nacional. Una mayor cooperación mundial sobre el despliegue de la IA reducirá el riesgo de que una IA mal alineada se integre en aplicaciones militares -e incluso nucleares- que le darían una mayor capacidad para crear una catástrofe para la humanidad.

Aunque actualmente no está claro si la regulación gubernamental podría aumentar significativamente las posibilidades de resolver la alineación de la IA, la regulación -tanto nacional como multilateral- podría al menos fomentar un desarrollo más lento y constante.

Afortunadamente, la cooperación privada chino-estadounidense sobre la alineación de la IA puede estar cobrando impulso. Ejecutivos y expertos estadounidenses en IA se han reunido con sus homólogos chinos para debatir la investigación sobre la alineación y la gobernanza mutua. El propio Altman realizó recientemente una gira mundial para debatir con líderes mundiales sobre las capacidades y la regulación de la IA. A medida que se educa a los gobiernos sobre los riesgos de la IA, la marea puede estar cambiando hacia un mundo más colaborativo. Este cambio sería sin duda una buena noticia.

Sin embargo, las perspectivas no son del todo halagüeñas: a medida que aumenta la relevancia política de la IA, las cuestiones de la velocidad, la regulación y la cooperación pueden politizarse en el debate partidista estadounidense sobre China. La regulación puede ser más difícil de impulsar cuando los «halcones chinos» empiecen a asociar la ralentización de la IA con la pérdida de una carrera armamentística frente a China. La retórica reciente del Congreso ha hecho hincapié en la carrera armamentística de la IA y ha restado importancia a la necesidad de regulación.

Sea real o no, Estados Unidos y China parecen convencidos de que la carrera armamentística de la IA está en marcha, una propuesta extremadamente peligrosa para un mundo que, por lo demás, no parece estar al borde de un gran avance en materia de alineación. Una distensión en esta particular carrera tecnológica -por improbable que parezca hoy- puede ser fundamental para el florecimiento de la humanidad a largo plazo.

__________________________

Este texto es una adaptación de A Race to Extinction: How Great Power Competition Is Making Artificial Intelligence Existentially Dangerous, publicado originalmente por Sam Meacham en el Harvard International Review, de la Universidad de Harvard.