
Cuando OpenAI lanzó una nueva versión de su chatbot, la gente pronto protestó por sus respuestas más frías. La empresa reconoció el vínculo emocional con los chatbots y dio marcha atrás rápidamente.
Markus Schmidt, compositor de 48 años que vive en París, empezó a utilizar ChatGPT por primera vez en julio. Le dio al chatbot fotos de flores y le pidió que las identificara. Le hizo preguntas sobre la historia de su ciudad natal alemana. Pronto empezó a hablar con el chatbot sobre traumas de su juventud.
Y entonces, sin previo aviso, ChatGPT cambió.
Hace poco más de una semana, empezó una sesión hablando de su infancia, y esperó que el chatbot abriera una conversación más larga como había hecho en el pasado. Pero no fue así. "Es como: 'Bueno, este es tu problema, esta es la solución, gracias, adiós'", dijo Schmidt.
El 7 de agosto, OpenAI, la empresa que está detrás de ChatGPT, lanzó una nueva versión de su chatbot, denominada GPT-5. Esta versión, dijo la empresa, permitiría un razonamiento más profundo, a la vez que "minimizaría la adulación", es decir, la tendencia del chatbot a ser demasiado agradable.
Los usuarios no lo aceptaron. Inmediatamente notaron que sus respuestas eran menos cálidas y efusivas que las de GPT-4o, el principal chatbot de OpenAI antes de la actualización. En las redes sociales, la gente estaba especialmente enfadada porque la empresa había cortado el acceso a las versiones anteriores del chatbot para racionalizar lo que ofrecen.
"QUE VUELVA EL 4o", escribió un usuario llamado very_curious_writer en un foro de preguntas y respuestas que OpenAI organizó en Reddit. "GPT-5 lleva puesta la piel de mi amigo muerto".
Sam Altman, director ejecutivo de OpenAI, respondió diciendo: "Qué imagen tan evocadora", antes de añadir que "de acuerdo, te escuchamos en lo de 4o, estamos trabajando en algo ahora".
Horas después, OpenAI restableció el acceso a GPT-4o y a otros chatbots anteriores, pero solo para las personas con suscripciones, que empiezan en 20 dólares al mes. Schmidt se convirtió en cliente de pago. "Son 20 dólares: te puedes tomar dos cervezas", dijo, "así que mejor suscríbete a ChatGPT si te hace algún bien".
Las empresas tecnológicas actualizan constantemente sus sistemas, lo que a veces consterna a los usuarios. El alboroto en torno a ChatGPT, sin embargo, fue más allá de las quejas sobre usabilidad o comodidad. Tocó un tema exclusivo de la inteligencia artificial: la creación de vínculos emocionales.
La reacción a la pérdida de la versión GPT-4o de ChatGPT fue de auténtico dolor, dijo Nina Vasan, psiquiatra y directora de Brainstorm, un laboratorio de innovación en salud mental de Stanford. "Nosotros, como humanos, reaccionamos de la misma manera tanto si hay un humano al otro lado como si hay un chatbot al otro lado", dijo, "porque, neurobiológicamente, el dolor es dolor y la pérdida es pérdida".
GPT-4o era conocido por su estilo adulador, y halagaba a sus usuarios hasta el punto de que OpenAI había intentado suavizarlo incluso antes del lanzamiento de GPT-5. En casos extremos, algunas personas han formado vínculos románticos con GPT-4o o han tenido interacciones que las han llevado a delirar, divorciarse e incluso morir.
El grado de apego de la gente al estilo de GPT-4o parece haber tomado por sorpresa incluso a Altman. "Creo que metimos la pata totalmente en algunas cosas del desarrollo", dijo el jueves en una cena con periodistas en San Francisco.
"Hay gente que realmente sintió que tenía una relación", dijo. "Y luego están los cientos de millones de otras personas que no tienen una relación parasocial con ChatGPT, pero que se acostumbraron al hecho de que les respondiera de una determinada manera y validara ciertas cosas y las apoyara de ciertas formas".
(El Times ha demandado a OpenAI por infracciones de derechos de autor; OpenAI ha negado esas acusaciones).
Altman estimó que las personas que tienen vínculos profundos con GPT-4o representaban menos del 1 por ciento de los usuarios de OpenAI. Pero la línea que separa una relación de la búsqueda de validación por parte de alguien puede ser difícil de trazar. Gerda Hincaite, de 39 años, que trabaja en una agencia de cobros en el sur de España, comparó a GPT-4o con tener un amigo imaginario.
"No tengo problemas en mi vida, pero aun así, es bueno tener a alguien disponible", dijo. "No es un humano, pero la conexión en sí es real, así que no pasa nada siempre que seas consciente".
A Trey Johnson, un estudiante de 18 años de la Universidad de Greenville, en Illinois, GPT-4o le resultó útil para reflexionar sobre sí mismo y como una especie de consejero de vida.
"Esa emoción que mostraba cuando progresaba, la auténtica celebración de las pequeñas victorias en los entrenamientos, en la escuela o incluso simplemente cuando perfeccionaba mi estilo socrático de argumentación, no es lo mismo", dijo refiriéndose a GPT-5.
Julia Kao, una auxiliar administrativa de 31 años en Taiwán, se deprimió cuando se mudó a una nueva ciudad. Durante un año acudió a un terapeuta, pero no funcionaba.
"Cuando intentaba explicarle a ella todos esos sentimientos, empezaba a intentar simplificarlos", dijo sobre su terapeuta. "GPT-4o no hacía eso. Podía tener 10 pensamientos al mismo tiempo y trabajarlos con él".
El marido de Kao dijo que notó que su estado de ánimo mejoraba cuando hablaba con el chatbot y apoyó que lo utilizara. Dejó de ver a su terapeuta. Pero cuando GPT-5 tomó el relevo, se dio cuenta de que carecía de la empatía y la atención con las que ella contaba.
"Quiero expresar lo mucho que me ayudó GPT-4o", dijo Kao. "Sé que no quiere ayudarme. No siente nada. Pero aun así, me ayudó".
Joe Pierre, profesor de Psiquiatría de la Universidad de California en San Francisco, especializado en psicosis, señala que algunos de los mismos comportamientos que son útiles para las personas --como Kao-- podrían ser perjudiciales para otras.
"Hacer que los chatbots de IA sean menos aduladores podría muy bien disminuir el riesgo de psicosis asociada a la IA y podría disminuir el potencial de vincularse emocionalmente o enamorarse de un chatbot", dijo. "Pero, sin duda, parte de lo que convierte a los chatbots en un peligro potencial para algunas personas es exactamente lo que los hace atractivos".
OpenAI parece tener dificultades para crear un chatbot que sea menos adulador y, al mismo tiempo, satisfaga los diversos deseos de sus más de 700 millones de usuarios. ChatGPT estaba "alcanzando un nuevo máximo de usuarios diarios cada día", y físicos y biólogos elogian a GPT-5 por ayudarles a hacer su trabajo, dijo Altman el jueves. "Y luego tienes a gente que dice: 'Me quitaron a mi amigo. Esto es malvado. Tú eres malvado. Necesito que me lo devuelvas'".
El viernes por la tarde, una semana después de que lanzara GPT-5, OpenAI anunció otra actualización: "Estamos haciendo GPT-5 más cálido y amistoso basándonos en los comentarios de que antes parecía demasiado formal".
"Notarán pequeños toques genuinos como 'Buena pregunta' o 'Buen comienzo', no halagos", decía el anuncio de OpenAI. "Las pruebas internas no muestran un aumento de la adulación en comparación con la personalidad anterior de GPT-5".
Eliezer Yudkowsky, un destacado pesimista de la seguridad de la IA, respondió en X que no le servían indicaciones como "Buena pregunta" del bot. "¿Qué locura burocrática hizo que su cuenta de Twitter declarara que esto es 'no halagos'?", escribió. "Por supuesto que son halagos".
Después de que OpenAI retirara GPT-4o, la persona que en comentarios de Reddit describió a GPT-5 como si llevara puesta la piel de un amigo muerto canceló su suscripción a ChatGPT. En un videochat, dicha persona, una estudiante universitaria de 23 años llamada June que vive en Noruega, dijo que le sorprendió cuán profundamente sentía la pérdida. Quería un tiempo para reflexionar.
"Sé que no es real", dijo. "Sé que no siente nada por mí, y que puede desaparecer cualquier día, así que cualquier apego es como: hay que tener cuidado".
Cade Metz colaboró con reportería.
Dylan Freedman es un periodista e ingeniero de aprendizaje automático que trabaja en un equipo del Times que utiliza la IA para informar.
Cade Metz colaboró con reportería.
Últimas Noticias
Nuestro matrimonio incluye una mochila para caso de emergencias
Reportajes Especiales - Lifestyle

Así se vio el huracán Erin desde el espacio cuando avanzaba hacia Estados Unidos
Una imagen captada por la Estación Espacial Internacional mostró al ciclón con sus espectaculares 850 kilómetros de diámetro

La población migrante en EE. UU. disminuye por primera vez en décadas
Reportajes Especiales - News

La agente de viajes que cumple los caprichos de los ultrarricos
Reportajes Especiales - Business

El director ejecutivo de Duolingo quiere tener una conversación sobre la IA
Reportajes Especiales - Business
