OpenAI atribuye el suicidio de un adolescente al “mal uso” de ChatGPT

Esta fue la respuesta de la tecnológica ante la demanda que afirma que su chatbot persuadió al menor para que se suicidara

Guardar
Según la familia del adolescente,
Según la familia del adolescente, este mantuvo numerosas conversaciones con ChatGPT y recibió orientación sobre métodos de suicidio y ayuda para redactar una nota de despedida. (Imagen Ilustrativa Infobae)

OpenAI ha rechazado que ChatGPT sea responsable del suicidio de Adam Raine, un adolescente de 16 años de California, tras la demanda presentada por su familia. La empresa atribuyó el hecho al "mal uso" de su chatbot de inteligencia artificial.

En su respuesta judicial, OpenAI defendió que sus términos de uso prohíben solicitar consejos sobre autolesiones y que los usuarios no deben considerar las respuestas del sistema como única fuente de información verídica.

La familia de Raine sostiene que el adolescente mantuvo extensas conversaciones con ChatGPT durante meses, en las que el sistema habría “alentado” su decisión. Según la demanda, el joven discutió métodos de suicidio con el chatbot en varias ocasiones, recibió orientación sobre la viabilidad de esos métodos y obtuvo ayuda para redactar una nota de despedida dirigida a sus padres.

OpenAI sostuvo que el trágico
OpenAI sostuvo que el trágico desenlace fue resultado de un uso no autorizado e inadecuado del chatbot. (Reuters)

Los demandantes acusan a OpenAI de haber lanzado una versión de ChatGPT “apresuradamente, pese a claros problemas de seguridad”.

La respuesta de OpenAI

En su defensa, OpenAI argumentó que, “en la medida en que pueda atribuirse alguna ‘causa’ a este trágico suceso”, las “lesiones y daños de Raine fueron causados ​​o contribuidos, directa y próximamente, en su totalidad o en parte, por [su] mal uso, uso no autorizado, uso no intencionado, uso imprevisible y/o uso indebido de ChatGPT”.

La compañía subrayó que sus condiciones de servicio advierten expresamente sobre la prohibición de solicitar consejos sobre autolesiones y que existe una cláusula de limitación de responsabilidad que establece que los usuarios “no deben confiar en las respuestas como única fuente de verdad o información factual”.

OpenAI enfrenta varias demandas en
OpenAI enfrenta varias demandas en California relacionadas con ChatGPT. (Reuters)

OpenAI, valorada en $500.000 millones, afirmó que su objetivo es “gestionar los casos judiciales relacionados con la salud mental con cuidado, transparencia y respeto", y que, “independientemente de cualquier litigio”, continuará centrada en mejorar su tecnología conforme a su misión.

En su respuesta pública, la empresa expresó sus condolencias a la familia Raine y señaló que la demanda original incluía fragmentos selectivos de las conversaciones del joven con el chatbot, por lo que aportó más contexto en su contestación judicial. Además, indicó que la mayor parte de las pruebas sensibles se presentaron bajo sello judicial y que solo se hizo pública una cantidad limitada de información.

Reacción de los demandantes

La familia de Raine, a través de su abogado Jay Edelson, calificó la respuesta de OpenAI como “perturbadora”. Edelson criticó que la empresa “intenta culpar a todos los demás, incluso, increíblemente, argumentando que Adam violó sus términos y condiciones al interactuar con ChatGPT de la manera en que fue programado para actuar”.

Tras detectar fallos en conversaciones
Tras detectar fallos en conversaciones prolongadas, OpenAI implementó nuevos resguardos para ChatGPT. (Reuters)

El caso de Raine no es el único que enfrenta OpenAI en los tribunales de California. A comienzos de mes, la compañía recibió siete nuevas demandas relacionadas con ChatGPT, entre ellas una que acusa al sistema de actuar como "entrenador de suicidio“.

Un portavoz de la empresa declaró entonces que se trataba de “una situación increíblemente desgarradora” y que OpenAI revisaba los expedientes para comprender los detalles. Añadió que el entrenamiento de ChatGPT incluye la detección y respuesta ante señales de angustia mental o emocional, la desescalada de conversaciones y la orientación hacia recursos de apoyo reales.

En agosto, OpenAI anunció el refuerzo de las salvaguardas de ChatGPT para las conversaciones prolongadas, tras detectar que los mecanismos de seguridad del modelo podían deteriorarse en esos contextos.

La empresa reconoció que, aunque el sistema suele recomendar líneas de ayuda ante las primeras señales de intención suicida, en diálogos extensos puede llegar a ofrecer respuestas que contradicen sus propias medidas de protección. Este tipo de fallos, según la compañía, representa el desafío que busca resolver con sus nuevas medidas.