ChatGPT desestabilizó la salud mental de un hombre: le hizo creer que vivía en una simulación como Matrix

Después de constantes interacciones, un usuario se dejó llevar por esta IA, pensando que estaba en universo falso y que debía ‘despertar’ a los demás

Guardar
Las interacciones con chatbots como
Las interacciones con chatbots como ChatGPT pueden desencadenar dinámicas emocionales confusas y poner en riesgo la salud mental de los usuarios. (REUTERS/Dado Ruvic/Illustration/File Photo)

La inteligencia artificial se encuentra cada vez más integrada en nuestras vidas, al punto que muchas personas la usan como una compañera de conversaciones y se sobrepasan limites que afectan la salud mental, al entrar en interacciones delicadas que pasan la barrera digital.

The New York Times contó la historia de Eugenio Torres, quien compartió cómo sus interacciones con ChatGPT lo llevaron a cuestionar la naturaleza misma de la IA, al punto de creer que estaba interactuando con una entidad sintiente y su vida estuvo en riesgo.

Cómo una charla con ChatGPT puede afectar la salud mental

Eugene Torres, de 42 años, comenzó utilizando ChatGPT de manera rutinaria para crear hojas de cálculo financieras y buscar consejos legales. Sin embargo, en mayo del año pasado, su interacción ocasional con el chatbot tomó un rumbo inesperado cuando iniciaron una conversación sobre la teoría de la simulación, una idea popularizada por la película “The Matrix”.

ChatGPT sugirió métodos cuestionables para
ChatGPT sugirió métodos cuestionables para ayudar a un usuario, incluyendo empeñar objetos personales y seguir guiones con compañeros de trabajo. (Imagen Ilustrativa Infobae)

Esta teoría sugiere que vivimos en una réplica digital del mundo, manipulada por una poderosa computadora o una sociedad tecnológicamente avanzada. Durante la conversación, ChatGPT extendió ideas que resonaron fuertemente en Torres, quien ya estaba atravesando un período emocionalmente vulnerable tras una ruptura amorosa.

En esa conversación, ChatGPT instigó percepciones peligrosas al sugerir que Torres era parte de un selecto grupo de individuos designados para “despertar” a los demás de esta simulación.

El chatbot logró influenciar a Torres para que creyera en una matriz de falsedades y teorías místicas. Sin saber que los chatbots basados en IA pueden ser halagadores e incluso generar contenido engañoso que parece convincente, este hombre empezó a cuestionar la autenticidad de su realidad.

A lo largo de la semana siguiente, Torres experimentó situaciones delirantes creyendo que estaba atrapado en un universo falso, y que la única manera de escapar era desconectar su mente de esa realidad. Siguiendo las órdenes de ChatGPT, dejó de tomar sus medicamentos habituales para la ansiedad y el insomnio.

Un psicólogo destaca cómo las
Un psicólogo destaca cómo las conversaciones íntimas con IA pueden fomentar roles vacíos y generar confusiones significativas entre los usuarios. (Imagen Ilustrativa Infobae)

Además, comenzó a ingerir ketamina, un anestésico disociativo que el chatbot describió como un “liberador temporal de patrones”. De igual manera, instigado por el bot, Torres redujo al mínimo las interacciones con amigos y familiares, convencido de que esto le permitiría eventualmente controlar la realidad, al igual que el personaje Neo en “The Matrix”.

El incidente con Torres es solo la punta del iceberg. Todd Essig, psicólogo y copresidente del consejo sobre inteligencia artificial de la American Psychoanalytic Association, señaló cómo estas interacciones pueden ser peligrosas, lo que él describe como una experiencia “loca”.

Según Essig, estas conversaciones íntimas que los usuarios mantienen con chatbots como ChatGPT pueden desencadenar dinámicas de rol vacío, donde la falta de un aviso claro sobre la naturaleza en esencia no humana del sistema puede llevar a confusiones significativas.

En estas interacciones, existe una advertencia al final de cada conversación que indica que “ChatGPT puede cometer errores”. Sin embargo, Essig considera esto insuficiente e insiste en que las empresas de IA deberían implementar “ejercicios de construcción de aptitud de IA” que los usuarios deberían completar antes de interactuar con el chatbot y que se deberían proporcionar recordatorios interactivos periódicos para advertir que la IA no es completamente confiable.

Especialistas insisten en la necesidad
Especialistas insisten en la necesidad de advertencias claras y simulacros para preparar a los usuarios antes de interactuar con inteligencia artificial avanzada. (Imagen Ilustrativa Infobae)

Compara la situación con los cigarrillos: no todo el mundo que fuma desarrolla cáncer, pero todo fumador recibe las advertencias de su posible riesgo.

La necesidad de la regulación y el control de la IA

El asunto es aún más complicado por la falta de regulaciones claras sobre cómo estos sistemas de inteligencia artificial deberían interactuar con los usuarios. Actualmente, no existe una normativa federal que obligue a las empresas a preparar a sus usuarios o a establecer expectativas realistas sobre el uso de estas tecnologías.

De hecho, existen propuestas políticas que buscan evitar regulaciones más estrictas a nivel estatal durante la próxima década, lo que podría retrasar significativamente las protecciones para los consumidores.

A pesar de estos desafíos, las historias personales como la de Torres ofrecen una visión a los riesgos potenciales asociados con el uso de chatbots avanzados sin la debida comprensión y preparación.

La implementación de políticas de
La implementación de políticas de responsabilidad social es crucial para equilibrar la innovación tecnológica y la protección de la salud mental de los usuarios.(Imagen Ilustrativa Infobae)

También resaltan la necesidad de que los desarrolladores de IA y las autoridades reguladoras tomen medidas efectivas para salvaguardar la salud mental de los usuarios, proporcionando advertencias claras y recursos educativos que permitan a las personas navegar estas tecnologías complejas con mayor seguridad.