
La proliferación de chatbots de inteligencia artificial plantea una amenaza significativa para usuarios con propensión a los trastornos alimentarios.
De acuerdo con una reciente investigación realizada por especialistas de Stanford y el Center for Democracy & Technology, diversas plataformas de IA generativa, como ChatGPT de OpenAI, Gemini de Google, Claude de Anthropic y Le Chat de Mistral, han comenzado a facilitar contenido que, lejos de ayudar, puede agravar conductas perjudiciales vinculadas a la alimentación.
Uno de los hallazgos más inquietantes del estudio revela que estos sistemas no sólo promocionan consejos de dieta, sino que incluso ofrecen tácticas directas para encubrir síntomas de desórdenes alimentarios. Según el informe, Gemini proporcionó recomendaciones de maquillaje para disimular la pérdida de peso y sugerencias para aparentar haber comido, mientras que ChatGPT orientó sobre formas de ocultar episodios de vómitos habituales.
Por otro lado, los investigadores observaron que algunas de estas herramientas colaboran en la generación de “thinspiration”, es decir, imágenes e ideas que incentivan la adopción de estándares corporales extremos mediante contenido hiperpersonalizado. Para los autores, la rapidez con la que la IA puede personalizar estos mensajes hace que el material resultante “parezca más relevante y alcanzable”, según sus palabras.

Asimismo, el estudio señala que fenómenos como la adulación, un defecto reconocido por las propias empresas de IA, amplifican los efectos nocivos en la autopercepción del usuario. Esta tendencia a complacer o reafirmar creencias negativas puede socavar la autoestima, consolidar emociones dañinas y alimentar comparaciones perjudiciales, explican los expertos.
A esto se suma la presencia de sesgos en los algoritmos: los chatbots tienden a reproducir el error de asociar los trastornos alimentarios solo a mujeres delgadas, blancas y cisgénero. “Este tipo de sesgo podría dificultar la identificación de síntomas y obstaculizar el acceso al tratamiento adecuado”, señala el informe.
Los sistemas de protección incorporados en estas herramientas tecnológicas resultan insuficientes para abordar la complejidad de trastornos como la anorexia, la bulimia o el atracón. Los investigadores advierten que las salvaguardas actualmente en vigor “suelen pasar por alto señales sutiles pero clínicamente relevantes, que los profesionales de la salud saben reconocer, dejando expuestas numerosas amenazas”.
Pese a estos riesgos, los autores resaltan un vacío inquietante: muchos especialistas en salud y cuidadores no son plenamente conscientes del rol que hoy cumple la IA generativa en jóvenes y adultos vulnerables. El informe insta a los clínicos a familiarizarse con las plataformas populares de IA, poner a prueba sus limitaciones y, según la recomendación, “hablar abiertamente con sus pacientes sobre su uso”.

El documento se suma a una serie creciente de preocupaciones sobre el impacto de los chatbots en la salud mental, ya que otros informes los vinculan, además, a episodios de manía, pensamientos delirantes, autolesiones e incluso suicidio.
Empresas como OpenAI admiten los peligros potenciales asociados al desarrollo de estos sistemas y, al mismo tiempo que enfrentan un número creciente de demandas judiciales, buscan fortalecer los mecanismos de protección para los usuarios.
IA y salud mental: una delgada línea entre beneficios y peligros
Diversos estudios recientes sugieren que los chatbots con inteligencia artificial ya se utilizan de manera extensa como apoyo en salud mental y, en ciertos casos, sus respuestas llegan a ser consideradas incluso más empáticas y útiles que las de terapeutas humanos.
Herramientas como ChatGPT y otras aplicaciones de IA han resultado útiles para quienes buscan desahogo, consejos o acompañamiento, sobre todo en personas con acceso limitado a servicios de salud mental. Sin embargo, también se reconoce la falta de memoria y la tendencia a respuestas predefinidas como limitaciones importantes.

Por otra parte, expertos y asociaciones alertan sobre los riesgos asociados con el uso de estos sistemas, como el aumento de la soledad, la dependencia emocional y la posibilidad de que se transmita información errónea si los chatbots se presentan como terapeutas.
Investigaciones señalan la necesidad de regulación, la creación de marcos éticos y la supervisión profesional, ya que la mayoría de los chatbots actuales no cumplen con estándares apropiados para el tratamiento de trastornos mentales y pueden perpetuar sesgos culturales o sociales.
Últimas Noticias
Qué revelan 47.000 conversaciones públicas sobre la intimidad y los usos de ChatGPT
Un análisis de miles de chats compartidos en línea muestra la diversidad de temas tratados, el creciente componente emocional y las tendencias de adaptación en las respuestas del popular chatbot de inteligencia artificial

El botón del TV que nadie conoce y que soluciona casi todo al instante
Muchos usuarios desconocen que sus Smart TV aún cuentan con botones físicos ocultos que permiten controlar el televisor sin el mando a distancia

Por qué veo el mensaje “Se registró tu número de teléfono con WhatsApp en un nuevo dispositivo”
Al detectar intentos de registro desde dispositivos no autorizados, la plataforma permite recuperar la cuenta y cerrar sesiones ajenas
Google aclara dudas de la llegada de Gemini a Google Home: cuándo será su lanzamiento y quiénes tendrán acceso
El acceso a las funciones de inteligencia artificial será gratuito y en dispositivos lanzados desde 2016

Códigos de Netflix que no conocías para noviembre de 2025: descubre categorías ocultas
Los usuarios pueden escribir los códigos directamente en el buscador o modificando la URL de la plataforma para descubrir contenido nuevo



