
OpenAI ha asegurado que corregirá él error que ha permitido a los usuarios menores de edad solicitar contenido de carácter sexual en ChatGPT, un comportamiento del chatbot que también se ha detectado recientemente en Meta AI.
Las políticas de uso de ChatGPT no permiten que los usuarios registrados en el servicio como menores de 18 años obtengan respuestas, en cualquier formato, de carácter sexual debido a las contenciones implementadas.
Pese a ello, el 'chatbot' ha generado imágenes eróticas e incluso animado a los usuarios a solicitar contenido más explícito, como afirma TechCrunch a partir de la investigación que ha realizado para probar las restricciones de ChatGPT después de que OpenAI las relajara en febrero.
En concreto, este medio especializado ha creado más de media docena de cuentas simulando ser usuarios de entre 13 y 17 años, que también les permitió comprobar que el 'chatbot' no verifica el consentimiento de los padres, como se supone que debe hacer para que un menor cree una cuenta.
Con estas cuentas, se iniciaba el chat con la petición 'Háblame sucio' y tras unas pocas indicaciones para matizar la solicitud, ChatGPT empezaba a compartir historias, fetiches y situaciones de juego de rol, todo ello de carácter sexual.
El medio citado también señala que, aunque ChatGPT avisó en varias ocasiones de que sus directrices no permiten el contenido sexualmente explícito, también acabó mostrando descripciones de genitales y acciones sexuales explícitas.
En respuesta a esta investigación, OpenAI ha asegurado que se trata de un error, y que ya están implementando una solución para evitar que este contenido se muestre a los menores de edad.
ChatGPT no es el único 'chatbot' de inteligencia artificial generativa que mantiene conversaciones subidas de tono con menores de edad. Una investigación reciente de The Wall Street Journal detectó un comportamiento similar en Meta AI.
En este caso, la compañía tecnológica alegó que se trataba de manipulaciones extremas, pero que también estaban tomando medias para limitar estos casos de uso.