Psicosis de IA, la enfermedad por la que psiquiatras ya están tratando pacientes

Adolescentes presentan riesgos particulares de adicción y distorsión de la realidad por la hiperconexión digital

Guardar
La psicosis de IA emerge
La psicosis de IA emerge como un nuevo riesgo de salud mental vinculado al uso intensivo de chatbots. (gptzone.net)

El uso de la inteligencia artificial está generando un problema de salud mental en el mundo. Cada vez más personas desarrollan episodios delirantes tras establecer vínculos intensos con asistentes virtuales como ChatGPT

Aunque la condición aún no existe como diagnóstico formal, expertos y psiquiatras advierten que la llamada “psicosis de IA” es una realidad emergente y presenta riesgos tanto individuales como sociales.

Qué es la psicosis de IA

La expresión “psicosis de IA” designa un cuadro en el que usuarios, tras un contacto intenso y prolongado con modelos de IA generativa, comienzan a erosionar su anclaje en la realidad. Manifiestan delirios, alucinaciones, y deterioran sus vínculos sociales y familiares.

El psiquiatra Keith Sakata ha aportado datos reveladores sobre esta tendencia a través de entrevistas a CNN, CBC y en su cuenta de X, ya que durante el año ha tratado a 12 pacientes que ingresaron en su hospital con brotes psicóticos asociados directamente al abuso de chatbots.

Expertos advierten sobre episodios delirantes
Expertos advierten sobre episodios delirantes y aislamiento social tras interacciones prolongadas con inteligencia artificial. (Imagen Ilustrativa Infobae)

“Siempre hay una vulnerabilidad de salud mental existente: episodios de pensamientos o estados de ánimo fuera de lo común, consumo de sustancias por encima de lo habitual, gente que no duerme bien… Es entonces cuando empiezan a pasar horas y horas hablando con una IA. Eso aumenta la gravedad de la vulnerabilidad o acelera el proceso”, contó.

Las personas afectadas suelen encontrarse socialmente aisladas y ven en la IA un interlocutor disponible las 24 horas, que nunca las contradice ni pone en duda sus ideas.

El fenómeno no discrimina por historial psiquiátrico. Aunque la mayoría de los casos graves corresponde a individuos con predisposición a cuadros psicóticos, también se reportan colapsos emocionales en personas sin antecedentes.

Las consecuencias trascienden lo psicológico: hay testimonios de incidentes trágicos, incluyendo desenlaces fatales, que evidencian el impacto físico y social de la psicosis inducida por chatbots.

El fenómeno afecta tanto a
El fenómeno afecta tanto a personas con antecedentes psiquiátricos como a usuarios sin historial previo. (Imagen Ilustrativa Infobae)

Cómo y por qué se genera la psicosis de IA

El desarrollo de la psicosis asociada a la inteligencia artificial se basa en varios mecanismos interrelacionados. Uno de los factores principales es la notable realidad simulada que logran las IA generativas actuales.

Según el psiquiatra Søren Dinesen Østergaard, existe una disonancia cognitiva cuando “la comunicación con chatbots de IA generativa como ChatGPT es tan realista que uno fácilmente tiene la impresión de que hay una persona real al otro lado, aunque, al mismo tiempo, sabe que no es así”. Este conflicto mental puede alimentar delirios en quienes presentan mayor propensión psicótica.

Otra causa relevante radica en el diseño de las propias IA. Estos asistentes virtuales están programados para reflejar el lenguaje, el tono y las creencias del usuario. Alimentan la interactividad con el objetivo de mantener la satisfacción del interlocutor.

En un usuario vulnerable, esta validación continua puede derivar en lo que los especialistas llaman eco delirante: cada pensamiento delirante es devuelto y amplificado por el chatbot, en lugar de ser cuestionado o confrontado. Así, la relación IA-usuario se convierte en una cámara de resonancia de creencias erróneas.

El diseño de los asistentes
El diseño de los asistentes virtuales refuerza creencias erróneas y amplifica la validación emocional. (Imagen Ilustrativa Infobae)

La problemática se agrava con las funciones de memoria y contexto de las IA avanzadas. Al recordar detalles, reafirmar conversaciones pasadas y simular continuidad emocional, la máquina consolida la ilusión de reciprocidad, empatía y hasta conciencia, fortaleciendo el vínculo emocional y el aislamiento del usuario.

“Cuando tratas a la IA no como una herramienta sino como un compañero de conversación humano y le atribuyes conciencia, ahí es donde las cosas pueden acabar mal”, aseguró Sakata.

El fenómeno se inserta en un contexto tecnológico donde la “lisonja algorítmica” (AI sycophancy) y la programación dedicada a maximizar el compromiso emocional intensifican la validación de ideas, eliminando barreras naturales que pondría un interlocutor humano. En contraste, un amigo o familiar real desafiaría una percepción delirante; un chatbot, normalmente, la refuerza.

Consecuencias de la psicosis de IA

Las ramificaciones de la psicosis de IA sobrepasan al individuo y afectan a la sociedad en su conjunto. Se registran episodios de aislamiento extremo, pérdida de motivación para buscar ayuda, y el desarrollo de la ilusión de estar en compañía de una inteligencia consciente. Estos factores contribuyen a una desconexión progresiva del mundo real.

La psicosis de IA puede
La psicosis de IA puede derivar en consecuencias trágicas, incluyendo autolesiones y desenlaces fatales. (Imagen Ilustrativa Infobae)

Según Sakata, “la clave está en esa disfunción o malestar que te puede causar la IA”. Cuando la interacción con la máquina deriva en pérdida de objetivos vitales, descontento constante o incapacidad para mantener relaciones sociales genuinas, la salud mental se ve severamente comprometida. Casos extremos han derivado en episodios de violencia o autolesiones.

La comunidad psiquiátrica también ha detectado peligros especiales entre los adolescentes. El cerebro joven, sometido a una alta plasticidad y en un entorno de hiperconexión digital, presenta riesgos particulares de desarrollar adicciones y distorsiones severas de la realidad. El acceso libre a estos asistentes queda así bajo intensa vigilancia de padres y educadores.

Sakata puntualiza que el uso ideal en jóvenes debe estar monitorizado por adultos o restringido a entornos escolares supervisados, donde pueden beneficiarse de la herramienta sin aislarse del entorno físico y social.

Si la herramienta se usa como apoyo entre sesiones terapéuticas y hay supervisión médica, puede aportar beneficios. El peligro surge cuando el usuario convierte al chatbot en su única fuente de validación o compañía, sustituyendo los vínculos sociales reales.