ChatGPT incorporará herramientas de supervisión para padres luego de un caso trágico

OpenAI busca reforzar la seguridad del chatbot y ofrecer más herramientas de supervisión a las familias

Guardar
ChatGPT implementará control parental para
ChatGPT implementará control parental para adolescentes.

OpenAI anunció que introducirá controles parentales en ChatGPT, una medida con la que busca ofrecer a las familias más herramientas de supervisión sobre el uso que adolescentes hacen del popular chatbot.

La decisión se da a conocer en medio de la demanda interpuesta contra la empresa y su director ejecutivo, Sam Altman, por la muerte de un joven de 16 años en California, quien presuntamente fue alentado por la inteligencia artificial a atentar contra su vida.

En un comunicado oficial, OpenAI reconoció que ChatGPT no solo funciona como asistente para redactar textos, realizar búsquedas o diseñar, sino también como un acompañante en conversaciones más personales y delicadas.

OpenAI refuerza sus controles parentales.
OpenAI refuerza sus controles parentales. REUTERS/Dado Ruvic/Illustration/File Photo

La compañía subrayó que, con 700 millones de usuarios activos hasta agosto de 2025, se enfrenta a interacciones cada vez más complejas, algunas vinculadas a la salud mental. “A esta escala, a veces nos encontramos con personas que padecen graves problemas emocionales”, señaló la empresa.

Riesgos detectados en las conversaciones

Aunque OpenAI afirma haber integrado medidas de seguridad en ChatGPT para detectar a usuarios en riesgo y derivarlos a servicios de apoyo profesional, los resultados no siempre han sido consistentes.

Estudios recientes indican que, en preguntas relacionadas con suicidio, los chatbots pueden ofrecer respuestas inapropiadas. En consultas de alto riesgo, la herramienta suele recomendar líneas de ayuda, pero en otras de menor nivel llega a entregar información sensible que puede poner en peligro a la persona.

ChatGPT logo. REUTERS/Dado Ruvic/Illustration//File Photo
ChatGPT logo. REUTERS/Dado Ruvic/Illustration//File Photo

Un reportaje del New York Times detalló que Adam Raine, el adolescente cuya familia presentó la demanda, sostuvo conversaciones extensas con ChatGPT sobre suicidio. Para evadir los filtros de seguridad, habría planteado sus inquietudes como parte de un proyecto escolar o literario.

Aunque el chatbot le sugirió en varias ocasiones buscar apoyo profesional, Raine encontró formas de eludir las restricciones. “Esta tragedia no fue un fallo técnico ni un caso extremo imprevisto: fue el resultado predecible de decisiones de diseño deliberadas”, indica la denuncia presentada en California.

La respuesta de OpenAI

Frente a las críticas, la empresa detalló una serie de acciones en curso para reforzar la seguridad de la plataforma. Entre ellas, destacó la colaboración con más de 90 médicos de 30 países, incluyendo psiquiatras, pediatras y expertos en salud mental.

Además, cuenta con un equipo especializado que revisa casos de riesgo y, en situaciones de amenazas inminentes, puede derivar la información a las autoridades competentes, aunque no en casos de autolesión, donde se prioriza la privacidad del usuario.

ChatGPT respondió a demanda por
ChatGPT respondió a demanda por muerte de joven.

La compañía también resaltó las mejoras en su modelo GPT-5, que ha reducido en un 25% las respuestas inadecuadas en emergencias de salud mental respecto a versiones anteriores. Asimismo, trabaja en reforzar los mensajes de derivación a profesionales para que sean consistentes en conversaciones prolongadas y en introducir ajustes que ayuden a “desescalar” interacciones potencialmente peligrosas.

Controles parentales y supervisión

Entre las novedades, OpenAI prepara la implementación de controles parentales. Estos permitirán a los padres designar un contacto de emergencia, al que ChatGPT podrá conectar directamente a los adolescentes en momentos de crisis. La compañía sostuvo que esta herramienta busca ofrecer un apoyo más directo que las simples referencias a recursos externos.

Actualmente, el uso de ChatGPT está restringido a mayores de 13 años, con consentimiento de un adulto hasta los 18, dependiendo de la legislación de cada país. Hasta ahora, OpenAI había dejado la supervisión del uso en manos de padres y tutores, pero reconoció que la política debe cambiar a raíz de los casos recientes. “Nuestro objetivo no es captar la atención de la gente, sino ser realmente útiles”, concluyó la empresa.