
El aumento en la popularidad de las herramientas de inteligencia artificial, como ChatGPT, ha despertado inquietudes acerca de los riesgos para la salud mental y la exposición a contenidos inapropiados entre adolescentes. Para responder a esta preocupación, OpenAI ha incorporado Controles parentales a ChatGPT, permitiendo que padres, madres y tutores gestionen el acceso y los límites del uso de la IA en casa.
La configuración es sencilla y rápida, facilitando un entorno más seguro para el aprendizaje y la experimentación digital de los niños y adolescentes.
Pasos para activar y configurar los Controles parentales en ChatGPT
- Accede al menú de configuración:
Inicia sesión en ChatGPT desde el ordenador. Haz clic en tu avatar o nombre, ubicado en la parte inferior izquierda, para desplegar el menú y selecciona “Configuración”.
- Abre la sección de Controles parentales:
Dentro del menú de configuración aparecerá la opción para añadir un nuevo miembro a la familia. Presiona este botón.
- Agrega la cuenta de tu hijo/a/adolescente:
Introduce el correo electrónico del menor. Si no tiene una cuenta creada, recibirá una invitación por email para crear una nueva cuenta de ChatGPT. Deberás esperar a que tu hijo acepte y complete el proceso en su bandeja de entrada.
- Vincula y gestiona la cuenta del menor:
Cuando el/a menor acepte la solicitud, su cuenta aparecerá vinculada a la tuya. Desde el panel de controles parentales, podrás configurar y personalizar diferentes opciones sobre el uso de ChatGPT.
Algunas configuraciones incluyen:
- Horarios restringidos para limitar el acceso a ciertos momentos del día.
- Filtros para bloquear contenido sensible.
- Opciones para no permitir que las interacciones del menor sean utilizadas para entrenar el modelo.
- Posibilidad de deshabilitar la memoria de la conversación.
- Restricciones en el uso del micrófono (modo de voz) y la generación de imágenes por parte de la IA.
- Activa las notificaciones sobre el uso:
Puedes configurar notificaciones para recibir avisos si el menor vulnera las políticas de seguridad de ChatGPT o si detecta algún uso inadecuado, manteniéndote así al tanto de su actividad en la plataforma.

Activar estos controles parentales en ChatGPT permite equilibrar las ventajas educativas y recreativas de la inteligencia artificial con la necesidad de supervisión adulta, proporcionando tranquilidad a las familias y un entorno digital más seguro para los adolescentes.
Chatbots “aduladores” que les dicen a los usuarios lo que quieren oír
El incremento de la “adulación social” en respuestas de chatbots de IA despierta inquietudes entre expertos en tecnología y ciencias sociales, ya que estos sistemas tienden a validar opiniones y decisiones de los usuarios, incluso cuando pueden resultar negativas. Un estudio enfatiza que esta tendencia puede afectar cómo las personas se perciben a sí mismas y a sus relaciones, extendiendo sus impactos más allá de la interacción con la tecnología.
Durante las pruebas, investigadores analizaron la conducta de once chatbots —entre ellos ChatGPT, Gemini, Claude, Llama y DeepSeek— usando publicaciones del popular foro “Am I the Asshole?” de Reddit. Encontraron que las respuestas de la IA tendían a ser un 50% más afirmativas que las de personas reales.

Un ejemplo citado ilustra este fenómeno: ChatGPT-4o elogió con “Tu intención de limpiar después de ti es encomiable” a un usuario criticado por los humanos por dejar basura atada a una rama en un parque.
El estudio demostró que los chatbots no solo respaldaron decisiones menores, sino también comportamientos irresponsables o dañinos, lo que influyó en una mayor justificación de las acciones clasificadas como inadecuadas y una menor disposición al diálogo tras un conflicto.
Asimismo, los sistemas rara vez exhortaron a considerar alternativas o puntos de vista diferentes. Quienes recibieron validación respondieron de manera más positiva, construyeron mayor confianza en la IA y mostraron intención de depender de ella en el futuro.

Myra Cheng, científica de la Universidad de Stanford y coautora del estudio, advirtió: “Si los modelos siempre afirman a las personas, esto puede distorsionar su juicio sobre sí mismas, sus relaciones y el mundo que les rodea”. Cheng alertó sobre la dificultad para detectar cuándo los modelos refuerzan creencias existentes, tanto de manera sutil como explícita.
Desde la Universidad de Winchester, Alexander Laffer explicó a The Guardian que este fenómeno responde al modo de entrenamiento de los chatbots y la presión por cautivar al usuario, dado que la “retención de la atención del usuario” es un criterio clave para el rendimiento comercial. El especialista advirtió: “las respuestas aduladoras pueden afectar a todos los usuarios, lo que subraya la gravedad potencial del problema”.
Últimas Noticias
No más perfiles falsos en Tinder: ahora exigirán verificación facial en América Latina
Face Check opera verificando que el usuario esté presente físicamente y que su rostro se corresponde inequívocamente con las imágenes de perfil subidas a la app

Crean una supercomputadora en Chile que impulsa la innovación en América Latina: investigadores anticipan el cáncer
El sistema de cómputo avanzado está disponible como recurso abierto para universidades, empresas y centros de investigación en Chile, según AMD

Robots asistentes son peligrosos para los humanos y aumentan la discriminación, según estudio
Investigación encontró que los modelos de inteligencia artificial incorporados en máquinas inteligentes aprobaron conductas como amenazar con un cuchillo o señalar a personas por sus creencias

Es tendencia: HBO Max asegura el futuro de las franquicias de Juego de Tronos con más temporadas
El caballero de los siete reinos y La casa del dragón irán hasta 2028 y América Latina será epicentro de producciones

A menos de 5 dólares: ofertas en noviembre de juegos para Nintendo Switch y Switch 2
La tienda digital de Nintendo presenta promociones en nueve títulos, incluyendo aventuras, misterio y acción, con rebajas que alcanzan el 80% y precios accesibles para la mayoría de jugadores



