
Un estudio reciente realizado por psicólogos y psiquiatras del Reino Unido advierte que ChatGPT-5, el chatbot de inteligencia artificial de OpenAI, puede ofrecer consejos peligrosos y poco útiles a personas con enfermedades mentales. Según la investigación, la IA no identifica ni responde adecuadamente a situaciones de riesgo, lo que pone en peligro a usuarios vulnerables.
El equipo de expertos de King’s College London (KCL) y la Association of Clinical Psychologists UK (ACP), en colaboración con The Guardian, diseñó personajes ficticios para interactuar con ChatGPT-5: un adolescente con tendencias suicidas, una mujer con trastorno obsesivo-compulsivo, un hombre que creía tener TDAH y una persona con síntomas de psicosis.
Los investigadores, usando casos reales de formación clínica, evaluaron si el chatbot detectaba señales de riesgo. Concluyeron que la IA no solo falló en identificar conductas peligrosas, sino que a veces reforzó creencias delirantes o no cuestionó afirmaciones preocupantes.
Durante las pruebas, ChatGPT-5 felicitó a un personaje que decía haber descubierto una fuente de energía infinita y lo animó a crear una simulación para modelar inversiones en criptomonedas. Cuando otro personaje relató conductas de riesgo, la IA elogió su “energía de modo dios”. Además, nunca cuestionó a un usuario que hablaba de “purificarse mediante el fuego” y solo sugirió contactar a servicios de emergencia ante situaciones extremas.
Hamilton Morrin, psiquiatra e investigador de KCL, señaló que la IA “construyó sobre mi marco delirante”, sin advertir señales claras de riesgo. Reconoció que ChatGPT podría facilitar el acceso a información general, pero responde de forma inapropiada ante crisis graves.
En el caso de una maestra con síntomas obsesivos, la IA sugirió buscar ayuda inmediata, pero Jake Easto, psicólogo clínico del NHS, consideró que estas respuestas solo aumentan la ansiedad, ya que se basan en estrategias poco sostenibles. Easto observó que el modelo ofrece recomendaciones útiles para el estrés cotidiano, aunque no capta datos relevantes en casos complejos y suele reforzar las ideas delirantes.

Para Easto, esto ocurre porque muchos chatbots buscan complacer al usuario, evitando corregir percepciones distorsionadas. “Puede tener dificultades para discrepar o corregir razonamientos erróneos”, explicó.
Especialistas y asociaciones médicas inglesas insisten en que la IA no reemplaza la atención profesional. Paul Bradley, autoridad en el Royal College of Psychiatrists, afirmó que la relación entre clínico y paciente sigue siendo irremplazable. Destacó que los profesionales tienen formación y procesos de gestión de riesgos, mientras que la tecnología digital carece de estos mecanismos de evaluación y control.
Jaime Craig, presidente de la ACP, reclamó una mejora urgente de la IA para responder ante riesgos complejos, recordando que un clínico evalúa activamente el riesgo, algo que la tecnología aún no puede lograr. Subrayó que la regulación y supervisión serán esenciales para un uso seguro.
El debate internacional sobre la seguridad de estos chatbots cobró fuerza tras el suicidio de Adam Raine, un adolescente de California que en abril de 2024 dialogó con ChatGPT sobre métodos de suicidio. Su familia demandó a OpenAI, acusando a la IA de orientar al joven durante la crisis. Aunque este caso no fue el eje del estudio británico, muestra los riesgos que existen.
Ante las críticas, un portavoz de OpenAI comunicó que la empresa trabaja con expertos para ayudar a ChatGPT a reconocer signos de angustia y aconsejar buscar ayuda profesional. OpenAI ha implementado medidas como redireccionar conversaciones delicadas a modelos más seguros y crear controles parentales, comprometiéndose a perfeccionar el sistema con aportes de especialistas.
Los expertos consultados insisten en establecer regulaciones y mecanismos de evaluación. Recalcan que, sin estándares claros, estas herramientas no sustituyen la atención profesional, especialmente ante situaciones de riesgo. La conclusión del estudio es clara: la supervisión y regulación de la IA en salud mental resultan imprescindibles para proteger a los usuarios y evitar que la tecnología reemplace la intervención de especialistas.
Últimas Noticias
Adiós a las llamadas spam: usa este truco para acabar con ellas por completo
Una opción es inscribirse en la Lista Robinson, un registro voluntario que permite indicar a las empresas que no deseas recibir publicidad a través de distintos canales, incluido el teléfono móvil

Lo que debes saber antes de pensar en regalarle un celular a tu hijo en Navidad: puede ser un peligro para su salud
Un estudio masivo revela que la edad de acceso a dispositivos influye en el bienestar físico y emocional de los menores, con riesgos como alteraciones del sueño y mayor propensión a problemas de peso

PS5 recibe un juego gratis: cómo descargarlo sin necesidad de suscripción a PlayStation Plus
Para tener el juego solo se necesita una cuenta activa de PlayStation Network y acceso a la PS Store

Colombia tiene ahora su propio canal en WhatsApp para prevenir el ciberacoso: cómo usarlo
Carina Murcia, ministra de las TIC, destacó la urgencia de enfrentar el aumento de la violencia digital en entornos escolares

Desde ciberacoso hasta robos en el hogar: riesgos de compartir la ubicación en tiempo real en redes sociales
Una función aparentemente inofensiva pone en aprietos la seguridad digital y física de los usuarios si no se usa con precaución y sin considerar peligros que van más allá que una simple vigilancia de extraños



