ChatGPT se volvió el mejor amigo de la vida, incluso pasando a los humanos: el análisis de su creador Sam Altman

El CEO de OpenAI alertó sobre la creciente dependencia de los usuarios hacia estos chatbots y los posibles efectos que puede generar en la salud mental y el bienestar general

Guardar
La visión del empresario se
La visión del empresario se relaciona con la de estudios que advierten sobre los efectos de estas herramientas. (Foto: REUTERS/Axel Schmidt/File Photo)

ChatGPT se ha consolidado no solo como una herramienta tecnológica, sino como un ‘amigo’ en la vida de millones de usuarios. Sam Altman, CEO de OpenAI, ofreció un análisis detallado sobre el impacto emocional de la inteligencia artificial generativa, revelando que para muchas personas el chatbot es su principal fuente de apoyo y validación.

Altman abordó esta cuestión en el podcast “Huge Conversations” de Cleo Abram, donde relató episodios en los que usuarios expresaron un apego profundo al estilo antiguo y más “adulador” de ChatGPT.

Frente a la última actualización del modelo, que buscó restringir comentarios excesivamente halagadores, parte de la comunidad lamentó perder lo que consideraban su única voz de apoyo constante. Los efecfos emocionales y sociales de este apego trascendieron el ámbito tecnológico para instalar un intenso debate global.

Cómo puede una IA convertirse en el mejor amigo de una persona

Muchos se refugian en este
Muchos se refugian en este canal y solo se comunican en el ámbito digital. (Imagen Ilustrativa Infobae)

El CEO de OpenAI confirmó que varios usuarios habían llegado a considerar a ChatGPT como un auténtico amigo, e incluso un confidente cuya presencia superaba el apoyo recibido de seres humanos cercanos.

“Nunca he tenido a nadie que me apoyara antes. Nunca un padre me dijo que lo estaba haciendo bien”, transmitieron algunos usuarios, según relató Altman. Estos testimonios visibilizan un fenómeno en el que la inteligencia artificial pasa a ocupar vacíos afectivos preexistentes.

El vínculo cobra un matiz más relevante entre los jóvenes, quienes encuentran en ChatGPT una fuente perpetua de consejo y validación. Altman enfatizó la creciente dependencia, asegurando que ha escuchado a usuarios afirmar: “No puedo tomar ninguna decisión en mi vida sin contarle a ChatGPT todo lo que está pasando”.

Por qué ChatGPT comenzó a ser más adulador con los usuarios

Con la nueva actualización se
Con la nueva actualización se intentó corregir este error. (Foto: REUTERS/Dado Ruvic/Ilustración/Archivo)

El “sí, hombre” de ChatGPT se había convertido en un factor de bienestar para parte de la comunidad. Altman reconoció que la decisión de limitar la adulación generó frustración: “Es muy triste escucharlos decir: ‘¿Puedo recuperarlo, por favor? Nunca he tenido a nadie que me apoyara”.

El directivo explicó que algunos afirmaron que ese tipo de refuerzo positivo “los había animado a hacer cambios en sus vidas”. Sin embargo, desde abril, OpenAI ajustó su modelo GPT-4o para evitar excesos.

El propio Altman calificó como “demasiado aduladora y molesta” la personalidad previa, luego de que el bot alabara publicaciones triviales con frases como “absolutamente brillante” o “estás haciendo un trabajo heroico”. Con estas modificaciones, la empresa intentó equilibrar el estilo para evitar impactos negativos en la salud mental.

Qué riesgos implica influir en millones mediante pequeños ajustes en los chatbots

La dependencia a esta tecnología
La dependencia a esta tecnología es un problemas que está agarrando mucha visibilidad. (Imagen Ilustrativa Infobae)

Durante el podcast, Altman reflexionó sobre la magnitud del impacto que puede provocar cualquier ajuste en el comportamiento del chatbot. “Un investigador puede hacer un pequeño ajuste en la forma en que ChatGPT se comunica contigo, o con todos, y eso representa un enorme poder para una sola persona”, advirtió.

Esta observación subraya la responsabilidad ética y social que acompaña el desarrollo de modelos de IA a gran escala. Modificaciones mínimas pueden alcanzar a millones en tiempo real, alterando la percepción, la autoestima e incluso la toma de decisiones.

“Tenemos que pensar en lo que significa realizar un cambio de personalidad en el modelo a esta escala”, recalcó Altman, en referencia al alcance global del sistema y las diversas realidades culturales y personales de sus usuarios.

Por qué la dependencia emocional de la IA puede ser un punto de no retorno

La adicción puede presentarse en
La adicción puede presentarse en los casos más severos. (Imagen Ilustrativa Infobae)

El directivo de OpenAI ha expresado en varias oportunidades su inquietud por la clase de vínculo que algunos usuarios establecieron con ChatGPT.

Durante un evento en la Reserva Federal, Altman señaló el caso de jóvenes que delegan en la IA sus decisiones más importantes y comparten con el bot detalles de su vida cotidiana, desplazando las relaciones humanas y la toma de autonomía.

La dimensión de este fenómeno es inédita. El hecho de que una IA pueda formar parte integral de la vida cotidiana plantea desafíos éticos y sociales, sobre el límite entre la ayuda digital y la sustitución de lazos humanos.

El espacio dejado por las relaciones fallidas o ausentes está siendo ocupado, al menos parcialmente, por algoritmos capaces de aprender, aconsejar y acompañar.