
OpenAI ha rechazado que ChatGPT sea responsable del suicidio de Adam Raine, un adolescente de 16 años de California, tras la demanda presentada por su familia. La empresa atribuyó el hecho al "mal uso" de su chatbot de inteligencia artificial.
En su respuesta judicial, OpenAI defendió que sus términos de uso prohíben solicitar consejos sobre autolesiones y que los usuarios no deben considerar las respuestas del sistema como única fuente de información verídica.
La familia de Raine sostiene que el adolescente mantuvo extensas conversaciones con ChatGPT durante meses, en las que el sistema habría “alentado” su decisión. Según la demanda, el joven discutió métodos de suicidio con el chatbot en varias ocasiones, recibió orientación sobre la viabilidad de esos métodos y obtuvo ayuda para redactar una nota de despedida dirigida a sus padres.
Los demandantes acusan a OpenAI de haber lanzado una versión de ChatGPT “apresuradamente, pese a claros problemas de seguridad”.
La respuesta de OpenAI
En su defensa, OpenAI argumentó que, “en la medida en que pueda atribuirse alguna ‘causa’ a este trágico suceso”, las “lesiones y daños de Raine fueron causados o contribuidos, directa y próximamente, en su totalidad o en parte, por [su] mal uso, uso no autorizado, uso no intencionado, uso imprevisible y/o uso indebido de ChatGPT”.
La compañía subrayó que sus condiciones de servicio advierten expresamente sobre la prohibición de solicitar consejos sobre autolesiones y que existe una cláusula de limitación de responsabilidad que establece que los usuarios “no deben confiar en las respuestas como única fuente de verdad o información factual”.

OpenAI, valorada en $500.000 millones, afirmó que su objetivo es “gestionar los casos judiciales relacionados con la salud mental con cuidado, transparencia y respeto", y que, “independientemente de cualquier litigio”, continuará centrada en mejorar su tecnología conforme a su misión.
En su respuesta pública, la empresa expresó sus condolencias a la familia Raine y señaló que la demanda original incluía fragmentos selectivos de las conversaciones del joven con el chatbot, por lo que aportó más contexto en su contestación judicial. Además, indicó que la mayor parte de las pruebas sensibles se presentaron bajo sello judicial y que solo se hizo pública una cantidad limitada de información.
Reacción de los demandantes
La familia de Raine, a través de su abogado Jay Edelson, calificó la respuesta de OpenAI como “perturbadora”. Edelson criticó que la empresa “intenta culpar a todos los demás, incluso, increíblemente, argumentando que Adam violó sus términos y condiciones al interactuar con ChatGPT de la manera en que fue programado para actuar”.
El caso de Raine no es el único que enfrenta OpenAI en los tribunales de California. A comienzos de mes, la compañía recibió siete nuevas demandas relacionadas con ChatGPT, entre ellas una que acusa al sistema de actuar como "entrenador de suicidio“.
Un portavoz de la empresa declaró entonces que se trataba de “una situación increíblemente desgarradora” y que OpenAI revisaba los expedientes para comprender los detalles. Añadió que el entrenamiento de ChatGPT incluye la detección y respuesta ante señales de angustia mental o emocional, la desescalada de conversaciones y la orientación hacia recursos de apoyo reales.
En agosto, OpenAI anunció el refuerzo de las salvaguardas de ChatGPT para las conversaciones prolongadas, tras detectar que los mecanismos de seguridad del modelo podían deteriorarse en esos contextos.
La empresa reconoció que, aunque el sistema suele recomendar líneas de ayuda ante las primeras señales de intención suicida, en diálogos extensos puede llegar a ofrecer respuestas que contradicen sus propias medidas de protección. Este tipo de fallos, según la compañía, representa el desafío que busca resolver con sus nuevas medidas.
Últimas Noticias
Qué significa mezclar minúsculas con mayúsculas al escribir, según la IA
Según ChatGPT, quien alterna letras grandes y pequeñas suele buscar que el lector perciba un tono específico, aunque este tipo de escritura también puede asociarse a otras intenciones

Qué hacer si suspenden mi cuenta de WhatsApp
Determinados comportamientos pueden activar sanciones automáticas y solo un proceso específico permite solicitar la revisión del caso

Cómo saber si ha llegado el momento de cambiar tu Smart TV
Si observas que el balón o los jugadores se ven borrosos en las jugadas rápidas, es probable que estás usando un equipo con una baja tasa de refresco

Cómo obtener indicaciones para llegar a un lugar en Google Maps
Con la aplicación, es posible recibir instrucciones para llegar a un destino en coche, transporte público, caminando, usando servicios de transporte compartido, etc.
Investigadores presentan un modelo de IA que mejora el diagnóstico de enfermedades raras
Esta innovación permite avanzar hacia diagnósticos más precisos y tratamientos personalizados para quienes enfrentan trastornos poco frecuentes



