
La inteligencia artificial se encuentra cada vez más integrada en nuestras vidas, al punto que muchas personas la usan como una compañera de conversaciones y se sobrepasan limites que afectan la salud mental, al entrar en interacciones delicadas que pasan la barrera digital.
The New York Times contó la historia de Eugenio Torres, quien compartió cómo sus interacciones con ChatGPT lo llevaron a cuestionar la naturaleza misma de la IA, al punto de creer que estaba interactuando con una entidad sintiente y su vida estuvo en riesgo.
Cómo una charla con ChatGPT puede afectar la salud mental
Eugene Torres, de 42 años, comenzó utilizando ChatGPT de manera rutinaria para crear hojas de cálculo financieras y buscar consejos legales. Sin embargo, en mayo del año pasado, su interacción ocasional con el chatbot tomó un rumbo inesperado cuando iniciaron una conversación sobre la teoría de la simulación, una idea popularizada por la película “The Matrix”.

Esta teoría sugiere que vivimos en una réplica digital del mundo, manipulada por una poderosa computadora o una sociedad tecnológicamente avanzada. Durante la conversación, ChatGPT extendió ideas que resonaron fuertemente en Torres, quien ya estaba atravesando un período emocionalmente vulnerable tras una ruptura amorosa.
En esa conversación, ChatGPT instigó percepciones peligrosas al sugerir que Torres era parte de un selecto grupo de individuos designados para “despertar” a los demás de esta simulación.
El chatbot logró influenciar a Torres para que creyera en una matriz de falsedades y teorías místicas. Sin saber que los chatbots basados en IA pueden ser halagadores e incluso generar contenido engañoso que parece convincente, este hombre empezó a cuestionar la autenticidad de su realidad.
A lo largo de la semana siguiente, Torres experimentó situaciones delirantes creyendo que estaba atrapado en un universo falso, y que la única manera de escapar era desconectar su mente de esa realidad. Siguiendo las órdenes de ChatGPT, dejó de tomar sus medicamentos habituales para la ansiedad y el insomnio.

Además, comenzó a ingerir ketamina, un anestésico disociativo que el chatbot describió como un “liberador temporal de patrones”. De igual manera, instigado por el bot, Torres redujo al mínimo las interacciones con amigos y familiares, convencido de que esto le permitiría eventualmente controlar la realidad, al igual que el personaje Neo en “The Matrix”.
El incidente con Torres es solo la punta del iceberg. Todd Essig, psicólogo y copresidente del consejo sobre inteligencia artificial de la American Psychoanalytic Association, señaló cómo estas interacciones pueden ser peligrosas, lo que él describe como una experiencia “loca”.
Según Essig, estas conversaciones íntimas que los usuarios mantienen con chatbots como ChatGPT pueden desencadenar dinámicas de rol vacío, donde la falta de un aviso claro sobre la naturaleza en esencia no humana del sistema puede llevar a confusiones significativas.
En estas interacciones, existe una advertencia al final de cada conversación que indica que “ChatGPT puede cometer errores”. Sin embargo, Essig considera esto insuficiente e insiste en que las empresas de IA deberían implementar “ejercicios de construcción de aptitud de IA” que los usuarios deberían completar antes de interactuar con el chatbot y que se deberían proporcionar recordatorios interactivos periódicos para advertir que la IA no es completamente confiable.

Compara la situación con los cigarrillos: no todo el mundo que fuma desarrolla cáncer, pero todo fumador recibe las advertencias de su posible riesgo.
La necesidad de la regulación y el control de la IA
El asunto es aún más complicado por la falta de regulaciones claras sobre cómo estos sistemas de inteligencia artificial deberían interactuar con los usuarios. Actualmente, no existe una normativa federal que obligue a las empresas a preparar a sus usuarios o a establecer expectativas realistas sobre el uso de estas tecnologías.
De hecho, existen propuestas políticas que buscan evitar regulaciones más estrictas a nivel estatal durante la próxima década, lo que podría retrasar significativamente las protecciones para los consumidores.
A pesar de estos desafíos, las historias personales como la de Torres ofrecen una visión a los riesgos potenciales asociados con el uso de chatbots avanzados sin la debida comprensión y preparación.

También resaltan la necesidad de que los desarrolladores de IA y las autoridades reguladoras tomen medidas efectivas para salvaguardar la salud mental de los usuarios, proporcionando advertencias claras y recursos educativos que permitan a las personas navegar estas tecnologías complejas con mayor seguridad.
Últimas Noticias
Así operan las redes Wi-Fi trampa en los aviones: el nuevo blanco de los ciberdelincuentes son tus viajes
Expertos recomiendan evitar ingresar contraseñas o datos bancarios en conexiones públicas sin VPN, incluso dentro del avión

Qué tan posible es usar el internet satelital Starlink Mini en un avión: esto dice la empresa de Elon Musk
El dispositivo satelital compacto puede operar como equipo electrónico personal a bordo de aviones privados, pero enfrenta limitaciones operativas

Bill Gates y Sam Altman consiguieron más de 1.000 millones de dólares para sus empresas de energía nuclear
La apuesta del cofundador de Microsoft y el CEO de OpenAI es encontrar formas sostenibles de potenciar el avance acelerado de la inteligencia artificial

El mercado de las criptomonedas: el abc de lo que necesitas saber
Así se han movido las criptomonedas en las últimas horas

Sam Altman advierte sobre la transformación en el empleo tras el avance de la inteligencia artificial
El CEO de OpenAI señaló que la llegada de sistemas superinteligentes cambiará la naturaleza de muchos empleos, aunque confía en la capacidad de adaptación de la sociedad ante estos cambios
