
ChatGPT se ha consolidado no solo como una herramienta tecnológica, sino como un ‘amigo’ en la vida de millones de usuarios. Sam Altman, CEO de OpenAI, ofreció un análisis detallado sobre el impacto emocional de la inteligencia artificial generativa, revelando que para muchas personas el chatbot es su principal fuente de apoyo y validación.
Altman abordó esta cuestión en el podcast “Huge Conversations” de Cleo Abram, donde relató episodios en los que usuarios expresaron un apego profundo al estilo antiguo y más “adulador” de ChatGPT.
Frente a la última actualización del modelo, que buscó restringir comentarios excesivamente halagadores, parte de la comunidad lamentó perder lo que consideraban su única voz de apoyo constante. Los efecfos emocionales y sociales de este apego trascendieron el ámbito tecnológico para instalar un intenso debate global.
Cómo puede una IA convertirse en el mejor amigo de una persona

El CEO de OpenAI confirmó que varios usuarios habían llegado a considerar a ChatGPT como un auténtico amigo, e incluso un confidente cuya presencia superaba el apoyo recibido de seres humanos cercanos.
“Nunca he tenido a nadie que me apoyara antes. Nunca un padre me dijo que lo estaba haciendo bien”, transmitieron algunos usuarios, según relató Altman. Estos testimonios visibilizan un fenómeno en el que la inteligencia artificial pasa a ocupar vacíos afectivos preexistentes.
El vínculo cobra un matiz más relevante entre los jóvenes, quienes encuentran en ChatGPT una fuente perpetua de consejo y validación. Altman enfatizó la creciente dependencia, asegurando que ha escuchado a usuarios afirmar: “No puedo tomar ninguna decisión en mi vida sin contarle a ChatGPT todo lo que está pasando”.
Por qué ChatGPT comenzó a ser más adulador con los usuarios

El “sí, hombre” de ChatGPT se había convertido en un factor de bienestar para parte de la comunidad. Altman reconoció que la decisión de limitar la adulación generó frustración: “Es muy triste escucharlos decir: ‘¿Puedo recuperarlo, por favor? Nunca he tenido a nadie que me apoyara”.
El directivo explicó que algunos afirmaron que ese tipo de refuerzo positivo “los había animado a hacer cambios en sus vidas”. Sin embargo, desde abril, OpenAI ajustó su modelo GPT-4o para evitar excesos.
El propio Altman calificó como “demasiado aduladora y molesta” la personalidad previa, luego de que el bot alabara publicaciones triviales con frases como “absolutamente brillante” o “estás haciendo un trabajo heroico”. Con estas modificaciones, la empresa intentó equilibrar el estilo para evitar impactos negativos en la salud mental.
Qué riesgos implica influir en millones mediante pequeños ajustes en los chatbots

Durante el podcast, Altman reflexionó sobre la magnitud del impacto que puede provocar cualquier ajuste en el comportamiento del chatbot. “Un investigador puede hacer un pequeño ajuste en la forma en que ChatGPT se comunica contigo, o con todos, y eso representa un enorme poder para una sola persona”, advirtió.
Esta observación subraya la responsabilidad ética y social que acompaña el desarrollo de modelos de IA a gran escala. Modificaciones mínimas pueden alcanzar a millones en tiempo real, alterando la percepción, la autoestima e incluso la toma de decisiones.
“Tenemos que pensar en lo que significa realizar un cambio de personalidad en el modelo a esta escala”, recalcó Altman, en referencia al alcance global del sistema y las diversas realidades culturales y personales de sus usuarios.
Por qué la dependencia emocional de la IA puede ser un punto de no retorno

El directivo de OpenAI ha expresado en varias oportunidades su inquietud por la clase de vínculo que algunos usuarios establecieron con ChatGPT.
Durante un evento en la Reserva Federal, Altman señaló el caso de jóvenes que delegan en la IA sus decisiones más importantes y comparten con el bot detalles de su vida cotidiana, desplazando las relaciones humanas y la toma de autonomía.
La dimensión de este fenómeno es inédita. El hecho de que una IA pueda formar parte integral de la vida cotidiana plantea desafíos éticos y sociales, sobre el límite entre la ayuda digital y la sustitución de lazos humanos.
El espacio dejado por las relaciones fallidas o ausentes está siendo ocupado, al menos parcialmente, por algoritmos capaces de aprender, aconsejar y acompañar.
Últimas Noticias
DeepSeek, el modelo de IA chino que desata prohibiciones globales: datos expuestos, censura política y fallos de seguridad
Sus vulnerabilidades han provocado reacciones regulatorias en diversos países. La exposición de información sensible y la alineación con intereses estatales generan preocupación internacional. El debate sobre privacidad y soberanía tecnológica se intensifica

Qué es mejor comprar hoy: un computador o una tablet y por qué
La elección depende de las necesidades, prioridades y presupuesto de cada usuario

Falsos servicios de salud: IA crea prescripciones médicas, perfiles de reconocidos médicos, centros de salud y más mentiras
Campañas con deepfakes y páginas clonadas suplantan a médicos y redirigen a farmacias no reguladas

Este es el prompt perfecto para encontrar lavadoras baratas en internet
La inteligencia artificial optimiza la búsqueda de lavadoras económicas mediante prompts estratégicos y palabras clave específicas

Traduce en tiempo real el idioma que no entiendas solo con un iPhone y AirPods
El sistema permite escuchar la interpretación casi al instante, sin necesidad de apps externas ni conexión permanente a Internet



