OpenAI prepara el lanzamiento del "modo adulto" de su asistente ChatGPT para el primer trimestre de 2026

La compañía tecnológica anunció que habilitará una función exclusiva para mayores de edad, cuyo acceso quedará supeditado a un nuevo sistema automatizado que verificará la edad de los usuarios e impedirá que menores accedan a material sexualmente explícito

Guardar

Fidji Simo, directora ejecutiva de aplicaciones de OpenAI, explicó que la compañía ha pospuesto el lanzamiento del “modo adulto” de ChatGPT hasta el primer trimestre de 2026, tras realizar pruebas iniciales y constatar la necesidad de fortalecer la detección automatizada de edad en la plataforma. La ejecutiva comunicó, en información recogida por The Verge y difundida por distintos medios, que la decisión responde al objetivo de mejorar la precisión del sistema a la hora de identificar la edad de los usuarios, minimizando errores en la clasificación de menores y adultos.

Según publicó The Verge, OpenAI trabaja en la integración de un sistema automatizado capaz de distinguir la edad del interlocutor en las interacciones con el chatbot, apoyándose tanto en patrones de comportamiento como en otras variables recogidas durante el uso de la aplicación. El sistema está concebido para determinar si una persona es menor de 18 años y, en tal caso, ajustar las respuestas y restringir el acceso a materiales como contenido sexualmente explícito u otros materiales catalogados como nocivos para menores. Además, el modo restringido posibilitará la intervención de las fuerzas del orden cuando sea necesario, con el fin de reforzar medidas de seguridad.

OpenAI detalló, según consignó The Verge, que planea habilitar el acceso al modo adulto exclusivamente para usuarios que logren ser verificados como mayores de edad a través del nuevo sistema automatizado. De este modo, solo las personas autorizadas podrán incluir contenido erótico en las conversaciones generadas con el asistente, una función diferenciada que busca garantizar que los menores de 18 años no accedan a materiales inadecuados.

Originalmente, OpenAI contempló la introducción de esta función para diciembre de 2025; no obstante, el cronograma fue modificado tras analizar los primeros resultados del sistema de detección, que ya comenzó a probarse en algunos países piloto. Según explicó Simo al citado medio, el proceso de pruebas está enfocado en reducir el margen de error al identificar adolescentes y asegurar que los adultos no sean excluidos de manera equivocada. La compañía manifestó su intención de perfeccionar el sistema antes de la implementación final para evitar fallos que podrían derivar en la exposición accidental de menores a conversaciones de carácter sexual explícito.

De acuerdo con los detalles publicados por The Verge, el “modo adulto” forma parte de una estrategia más amplia para reforzar las políticas de protección infantil en el uso de inteligencia artificial conversacional. El sistema prevé ofrecer una experiencia diferenciada para los menores, bloqueando de forma automática las respuestas y temas considerados peligrosos o sensibles y adaptando las políticas del asistente a la franja de edad que logre identificar. También se ha hecho hincapié en la colaboración con las autoridades pertinentes en caso de detectar conductas ilícitas o riesgos para la integridad de los usuarios menores de edad.

OpenAI confirmó que la función se encuentra en fase de pruebas y que recogerá retroalimentación de los países donde ya se está evaluando el desempeño del sistema. Los objetivos principales apuntan a garantizar que tanto la tecnología de detección como las políticas implementadas respondan de forma eficaz a las necesidades de protección de los usuarios adolescentes y a la vez permitan un acceso seguro para los adultos interesados en utilizar la opción de conversaciones con contenido sexual explícito.

El medio The Verge informó que Sam Altman, a la cabeza de OpenAI, apoya esta iniciativa como parte de un compromiso más amplio en materia de seguridad infantil y prevención de daños potenciales asociados al uso de chatbots avanzados. La compañía estima que, al completar el proceso de mejora y verificación de la tecnología, logrará minimizar los riesgos inherentes a la exposición de menores a materiales restringidos y consolidar el acceso diferenciado entre mayores y menores de edad.

El desarrollo y la aplicación de este sistema automatizado de verificación de edad representan un cambio significativo en la gestión de contenidos dentro de los asistentes de inteligencia artificial, cuyos desafíos técnicos y operativos se encuentran actualmente en revisión por parte de la empresa. La fecha estimada para la disponibilidad global del “modo adulto” dependerá del éxito alcanzado en estas etapas de prueba y en la solidez de los filtros para evitar posibles errores de identificación y acceso no autorizado.