Que la inteligencia artificial generativa nos ha pillado a todos por sorpresa se ve en lo mucho que la Unión Europea ha tardado (y va a tardar) en sacar una ley IA, o en que pesos pesados del mundo de la abogacía estén cayendo en las trampas que ChatGPT y compañía nos tienen tendidas. Ya lo avisa el chatbot de OpenAI en cada una de sus páginas: ChatGPT puede equivocarse y mostrar información falsa.

Y el problema sólo puede ir a más. A la generación de imágenes fotorrealistas que ya es posible gracias a IAs como MidJourney v6 tenemos que sumar la inminente amenaza de los vídeos hechos con IA: a lo largo de 2024 se perfeccionará la generación de vídeos hechos con inteligencia artificial. ¿Está el sistema judicial preparado para la oleada de pruebas ficticias que podrían presentarse por culpa de la inteligencia artificial?

Relacionado: ¿Por qué ChatGPT funciona peor?

Google Bard le juega una mala pasada a Michael Cohen

Michael Cohen, ex abogado de Donald Trump, reconoció ayer en una presentación judicial que había enviado por error a su propio abogado citas ficticias de casos inexistentes generados por inteligencia artificial que luego fueron usadas como pruebas ante el tribunal.

Cohen confesó que pensaba que el bot de IA Google Bard era un «motor de búsqueda supercargado» mientras investigaba casos legales que mostrarían precedentes para eliminar su libertad supervisada.

Cohen dijo en la presentación del viernes que «no se ha mantenido al día con las tendencias emergentes (y los riesgos relacionados) en tecnología legal y no se dio cuenta de que Google Bard era un servicio de texto generativo que, como ChatGPT, podría mostrar citas y descripciones que parecían reales pero que en realidad no lo eran.» Cohen continuó diciendo que no sabía que el servicio de IA podía generar casos ficticios, argumentando que confiaba en que su abogado examinara sus sugerencias de adiciones antes de incorporarlas.»

El episodio podría tener implicaciones para un caso penal en Manhattan contra Donald Trump en el que se espera que el Sr. Cohen sea el testigo estrella. Los abogados del ex presidente han atacado durante mucho tiempo al Sr. Cohen como un fabulista en serie; ahora, dicen que tienen un nuevo ejemplo.

Cohen fue sentenciado en 2018 a una pena de prisión de tres años seguida de tres años de supervisión posterior a la liberación por delitos que incluyen hacer pagos secretos a mujeres que supuestamente tuvieron amoríos con Trump, mentir al Congreso y no declarar ingresos.

No es la primera vez que la IA engaña a un abogado

En junio de este año, un juez federal impuso multas de 5.000 dólares a dos abogados y un bufete en un caso sin precedentes en el que se culpó a ChatGPT por su presentación de una investigación jurídica ficticia en una reclamación por lesiones de aviación.

«Los avances tecnológicos son habituales y no hay nada inherentemente impropio en utilizar una herramienta de inteligencia artificial fiable como ayuda», escribió Castel. «Pero las reglas existentes imponen un papel de guardián a los abogados para garantizar la exactitud de sus presentaciones».

Relacionado: El New York Times demanda a OpenAI y Microsoft por «violación masiva» de copyright

Caso Avianca

Un abogado que confió en ChatGPT para preparar la presentación ante el tribunal de un hombre que demandaba a una aerolínea también descubrió de la peor forma posible los defectos de ChatGPT.

Roberto Mata demandó a la aerolínea colombiana Avianca el año pasado, alegando que un carrito metálico de comida y bebida le había lesionado la rodilla en un vuelo al aeropuerto internacional Kennedy de Nueva York. Cuando Avianca pidió a un juez de Manhattan que desestimara la demanda basándose en la prescripción, el abogado de Mata, Steven A. Schwartz, presentó un escrito basado en la investigación realizada por ChatGPT, dijo Schwartz, del bufete de abogados Levidow, Levidow & Oberman, en una declaración jurada.

Las invenciones se descubrieron cuando los abogados de Avianca se dirigieron al juez del caso, Kevin Castel, del Distrito Sur de Nueva York, diciendo que no podían localizar en las bases de datos jurídicas los casos citados en el escrito de los abogados de Mata.

¿Están los tribunales preparados para analizar pruebas generadas con inteligencia artificial?

Joe Tavares, experto en inteligencia artificial, declaró hace poco en Fox News que «actualmente no existe realmente una forma de detectar pruebas hechas con IA en un juicio: «Si tuvieras un individuo o un estado bien financiado que quisiera hacer algo así, sería muy difícil notar la diferencia».

Ya se dio, a principios de este año, la voz de alarma acerca del desafío que supondrá para el sistema judicial el uso de pruebas generadas con IA. Los tribunales no están equipados para detectar las pruebas falsas de vídeo y audio que contaminarán el sistema judicial gracias a los avances de la tecnología artificial, afirma Maura Grossman, experta en ética, derecho y tecnología de la Universidad de Waterloo, en Australia.

«Me preocupa lo que ocurra con el sistema judicial cuando ni un juez ni un jurado estén ya en condiciones de creer a sus ojos y oídos cuando examinen las pruebas», dijo Grossman en una entrevista.

Sólo los acusados que puedan permitirse pagar el análisis pericial de las pruebas podrán tener un juicio justo cuando intenten refutar falsificaciones profundas, afirmó.

La opinión del presidente del Tribunal Supremo de EE.UU.

El presidente del Tribunal Supremo de EE.UU., John Roberts, afirmó en un informe de fin de año que la IA representa una bendición mixta para el ámbito jurídico, e insta a la «cautela y humildad» a medida que la tecnología en evolución transforma la forma en que jueces y abogados realizan su trabajo.

Roberts adoptó un tono ambivalente en su informe de 13 páginas. Afirmó que la IA tiene potencial para aumentar el acceso a la justicia de los litigantes indigentes, revolucionar la investigación jurídica y ayudar a los tribunales a resolver los casos de forma más rápida y barata, aunque también señaló la preocupación por la privacidad y la incapacidad de la tecnología actual para replicar la discreción humana.

«Predigo que habrá jueces humanos durante un tiempo», escribió Roberts. «Pero con igual confianza predigo que el trabajo judicial -particularmente a nivel de juicio- se verá significativamente afectado por la IA».

El comentario del presidente del Tribunal Supremo es su discusión más significativa hasta la fecha sobre la influencia de la IA en la ley, y coincide con una serie de tribunales inferiores que luchan con la mejor manera de adaptarse a una nueva tecnología capaz de aprobar el examen de abogacía, pero también propensa a generar contenido ficticio, conocido como «alucinaciones.»

Roberts subrayó que «cualquier uso de la IA requiere cautela y humildad». Finalmente, mencionó de forma genérica los casos que hemos comentado en este artículo acerca de la mala pasada que pueden jugar las alucinaciones de la IA al sistema judicial.