En las últimas semanas, ChatGPT ha impuesto un límite de 40 mensajes cada tres horas. ¿Qué hay de cierto en los comentarios que afirman que ChatGPT ofrece peores resultados desde hace unos meses? Dejadme que os cuente una historia.

Hace unos días le pedí a ChatGPT que me ayudase a identificar la fuente tipográfica de un logotipo. Para ello, compartí con el chatbot de OpenAI una imagen del logo, le lancé la instrucción y me fui, feliz, a hacerme un café mientras se generaba la respuesta. Lo que me encontré al regresar de la cocina me descolocó: un listado de webs para identificar tipografías. Es decir, ChatGPT me dijo: «hazlo tú».

Una tarea simple que, hace no mucho, habría sido solucionada sin problema, era ahora reducida a una respuesta extraña (¡intolerable!) que, viendo el excepcional rendimiento de ChatGPT en los últimos meses, en absoluto me esperaba. Por desgracia, no fui el único que empezó a darse cuenta de que algo raro le estaba pasando a los resultados de ChatGPT, el cual parece haberse vuelto vago y perezoso. Cansado. Hoy, OpenAI ha reconocido a través de Twitter X que, efectivamente, el chatbot no pasa por sus mejores días.

Relacionado: ¿Por qué ChatGPT funciona cada vez peor? ¿Se está volviendo tonto?

ChatGPT ofrece peores resultados: ¿por qué?

Como puedes ver en este tuit reciente de OpenAI, la empresa responsable del chatbot de inteligencia artificial más famoso (y eficiente) del mundo reconoce que algo no va bien. A los resultados menos eficientes, además, hay que sumar una constante caída de la red que hace necesario en muchas ocasiones tener que volver a introducir la instrucción. No obstante, OpenAI no considera que el modelo en sí haya cambiado. La justificación se centra en el tiempo que lleva sin actualizarse.

Según OpenAI, GPT-4 Turbo no se ha actualizado desde el 11 de noviembre: «hemos escuchado todos vuestros comentarios acerca de GPT4 cada vez más perezoso! no hemos actualizado el modelo desde el 11 de noviembre, y esto ciertamente no es intencional. el comportamiento del modelo puede ser impredecible, y estamos buscando la manera de solucionarlo».

Usuario de Reddit molesto con el rendimiento de ChatGPT amenaza con cancelar su suscripción premium.
Usuario de Reddit molesto con el rendimiento de ChatGPT amenaza con cancelar su suscripción premium de 20 dólares al mes.

La respuesta (lógica) de varios usuarios ha sido la incomprensión: ¿qué relación hay entre el rendimiento de un chatbot y la última vez que se actualizó su base de datos? OpenAI también afirma que las diferencias en el comportamiento del modelo podrían ser muy sutiles. «Es posible que sólo un subconjunto de avisos esté degradado y que los clientes y empleados tarden mucho tiempo en darse cuenta y solucionar estos patrones».

Relacionado: ChatGPT fue el artículo más leído de Wikipedia en inglés 2023

OpenAI: «para ser claros, la idea no es que el modelo haya cambiado de alguna manera desde el 11 de noviembre. es sólo que las diferencias en el comportamiento del modelo pueden ser sutiles – sólo un subconjunto de avisos puede ser degradado, y puede tomar mucho tiempo para que los clientes y los empleados noten y solucionen estos patrones».

OpenAI da más explicaciones sobre por qué ChatGPT funciona peor

Por que ChatGPT ofrecer peores respuestas de mas baja calidad que antes
Hilo de Twitter X con las explicaciones de OpenAI sobre la bajada de rendimiento de ChatGPT.

En tweets posteriores, OpenAI ha explicado las complejidades del entrenamiento de la IA. En esencia, la empresa dice que diferentes ejecuciones de entrenamiento, incluso con los mismos conjuntos de datos, podrían producir modelos con diferencias significativas en personalidad, estilo de escritura, comportamiento de negación, rendimiento de evaluación e incluso sesgo político.

OpenAI: «El entrenamiento de modelos de chat no es un proceso industrial limpio. Diferentes entrenamientos, incluso utilizando los mismos conjuntos de datos, pueden producir modelos que son notablemente diferentes en personalidad, estilo de escritura, comportamiento de rechazo, rendimiento de evaluación e incluso sesgo político».

Recientemente, se realizaron pruebas comparativas de código para GPT-4 Turbo que demostraron que el modelo Turbo era capaz de resolver menos problemas de código, y a menudo sólo tras un segundo intento. Una hipótesis detrás de esta caída del rendimiento es que GPT-4 Turbo se ha destilado aún más para abaratar los costes de una herramienta que, como te comentamos en el artículo del primer aniversario de ChatGPT, le está costando a OpenAI la friolera de 700.00 dólares al día sólo para hacerla funcionar.

Relacionado: ¿Cuándo sale ChatGPT 5? ¿Cómo será?

Múltiples quejas sobre el funcionamiento de ChatGPT en los últimos meses

A poco que te hayas pasado por cualquier foro especializado en inteligencia artificial, habrás tenido la oportunidad de leer múltiples quejas de toda índole sobre usuarios insatisfechos con el rendimiento de ChatGPT.

ChatGPT funciona peor
Usuario de Reddit molesto con ChatGPT porque ya no genera tablas de Excel como antes.

Algunos usuarios incluso han anunciado que cancelaban su suscripción de Premium de 20 dólares mensuales (una decisión que habría que sopesar bien, dado que hace semanas que se desactivó temporalmente la suscripción a ChatGPT premium, precisamente por exceso de demanda y saturación de los servidores de la herramienta). «¿Para qué estamos pagando? Agoto todos mis mensajes simplemente intentando que GPT4 responda a algo que no tenía ningún problema en responder hace sólo 3 meses», comentaba hoy mismo este usuario enfurecido en Reddit.

No parece casualidad que las quejas sobre el funcionamiento de ChatGPT se hayan multiplicado justo cuando OpenAI se ha visto obligada a deshabilitar nuevos usuarios premium. Es cuanto menos llamativo que no haya mención alguna a este misterio en el hilo de tuits que pretenden explicar por qué ChatGPT ofrece peores resultados desde hace meses.