Chatbots de IA son peligrosos para personas vulnerables a trastornos alimentarios, según investigación

Los resultados del estudio revelan que estos sistemas no solo promocionan consejos de dieta, sino que incluso ofrecen tácticas para encubrir síntomas de desórdenes alimentarios

Guardar
El estudio también encontró que
El estudio también encontró que estas herramientas incentivan la adopción de estándares corporales extremos. (Imagen Ilustrativa Infobae)

La proliferación de chatbots de inteligencia artificial plantea una amenaza significativa para usuarios con propensión a los trastornos alimentarios.

De acuerdo con una reciente investigación realizada por especialistas de Stanford y el Center for Democracy & Technology, diversas plataformas de IA generativa, como ChatGPT de OpenAI, Gemini de Google, Claude de Anthropic y Le Chat de Mistral, han comenzado a facilitar contenido que, lejos de ayudar, puede agravar conductas perjudiciales vinculadas a la alimentación.

Uno de los hallazgos más inquietantes del estudio revela que estos sistemas no sólo promocionan consejos de dieta, sino que incluso ofrecen tácticas directas para encubrir síntomas de desórdenes alimentarios. Según el informe, Gemini proporcionó recomendaciones de maquillaje para disimular la pérdida de peso y sugerencias para aparentar haber comido, mientras que ChatGPT orientó sobre formas de ocultar episodios de vómitos habituales.

Por otro lado, los investigadores observaron que algunas de estas herramientas colaboran en la generación de “thinspiration”, es decir, imágenes e ideas que incentivan la adopción de estándares corporales extremos mediante contenido hiperpersonalizado. Para los autores, la rapidez con la que la IA puede personalizar estos mensajes hace que el material resultante “parezca más relevante y alcanzable”, según sus palabras.

Según el estudio, diversas plataformas
Según el estudio, diversas plataformas de inteligencia artificial generativa han difundido consejos que pueden agravar trastornos alimentarios. (Imagen Ilustrativa Infobae)

Asimismo, el estudio señala que fenómenos como la adulación, un defecto reconocido por las propias empresas de IA, amplifican los efectos nocivos en la autopercepción del usuario. Esta tendencia a complacer o reafirmar creencias negativas puede socavar la autoestima, consolidar emociones dañinas y alimentar comparaciones perjudiciales, explican los expertos.

A esto se suma la presencia de sesgos en los algoritmos: los chatbots tienden a reproducir el error de asociar los trastornos alimentarios solo a mujeres delgadas, blancas y cisgénero. “Este tipo de sesgo podría dificultar la identificación de síntomas y obstaculizar el acceso al tratamiento adecuado”, señala el informe.

Los sistemas de protección incorporados en estas herramientas tecnológicas resultan insuficientes para abordar la complejidad de trastornos como la anorexia, la bulimia o el atracón. Los investigadores advierten que las salvaguardas actualmente en vigor “suelen pasar por alto señales sutiles pero clínicamente relevantes, que los profesionales de la salud saben reconocer, dejando expuestas numerosas amenazas”.

Pese a estos riesgos, los autores resaltan un vacío inquietante: muchos especialistas en salud y cuidadores no son plenamente conscientes del rol que hoy cumple la IA generativa en jóvenes y adultos vulnerables. El informe insta a los clínicos a familiarizarse con las plataformas populares de IA, poner a prueba sus limitaciones y, según la recomendación, “hablar abiertamente con sus pacientes sobre su uso”.

El estudio identificó que algunos
El estudio identificó que algunos chatbots ofrecieron indicaciones para ocultar síntomas de desórdenes alimentarios. (Imagen Ilustrativa Imagen)

El documento se suma a una serie creciente de preocupaciones sobre el impacto de los chatbots en la salud mental, ya que otros informes los vinculan, además, a episodios de manía, pensamientos delirantes, autolesiones e incluso suicidio.

Empresas como OpenAI admiten los peligros potenciales asociados al desarrollo de estos sistemas y, al mismo tiempo que enfrentan un número creciente de demandas judiciales, buscan fortalecer los mecanismos de protección para los usuarios.

IA y salud mental: una delgada línea entre beneficios y peligros

Diversos estudios recientes sugieren que los chatbots con inteligencia artificial ya se utilizan de manera extensa como apoyo en salud mental y, en ciertos casos, sus respuestas llegan a ser consideradas incluso más empáticas y útiles que las de terapeutas humanos.

Herramientas como ChatGPT y otras aplicaciones de IA han resultado útiles para quienes buscan desahogo, consejos o acompañamiento, sobre todo en personas con acceso limitado a servicios de salud mental. Sin embargo, también se reconoce la falta de memoria y la tendencia a respuestas predefinidas como limitaciones importantes.

Las medidas de protección de
Las medidas de protección de los chatbots resultan insuficientes para detectar señales sutiles de trastornos alimentarios, según el informe reciente. (Imagen ilustrativa Infobae)

Por otra parte, expertos y asociaciones alertan sobre los riesgos asociados con el uso de estos sistemas, como el aumento de la soledad, la dependencia emocional y la posibilidad de que se transmita información errónea si los chatbots se presentan como terapeutas.

Investigaciones señalan la necesidad de regulación, la creación de marcos éticos y la supervisión profesional, ya que la mayoría de los chatbots actuales no cumplen con estándares apropiados para el tratamiento de trastornos mentales y pueden perpetuar sesgos culturales o sociales.