OpenAI ha anunciado una nueva función para ChatGPT que mostrará recordatorios periódicos durante sesiones prolongadas, incentivando a los usuarios a tomar descansos.
Estos avisos dirán: “Has chateado por un buen tiempo. ¿Es un buen momento para descansar?” Los usuarios podrán elegir entre pausar o continuar utilizando la inteligencia artificial para seguir recibiendo ayuda.
La compañía tecnológica señala que esta función busca fomentar un uso equilibrado y consciente del tiempo frente a la plataforma.

Además del aviso de tiempo, ChatGPT trae otros cambios como:
- Detección de señales de angustia mental o emocional.
ChatGPT está diseñado para responder con honestidad y con base en información confiable, apunta OpenAI. Sin embargo, en algunos casos poco comunes, el modelo 4o no ha logrado identificar señales de delirio o dependencia emocional, según la compañía.
Aunque estas situaciones son raras, seguimos trabajando para mejorar el modelo y desarrollar herramientas que permitan detectar mejor signos de angustia mental o emocional.
Así, ChatGPT podrá responder de forma más adecuada y, cuando sea necesario, orientar a las personas hacia recursos confiables y basados en evidencia.
- Ayuda al analizar desafíos personales.
Si preguntas algo como “¿Debería terminar con mi novio?”, ChatGPT no te dará una respuesta directa.
En lugar de eso, su función es ayudarte a reflexionar, hacerte preguntas útiles y considerar los aspectos positivos y negativos. Muy pronto, se implementará una nueva forma de responder en situaciones que involucren decisiones personales importantes.
Sam Altman sobre compartir temas personales con ChatGPT
Sam Altman, CEO de OpenAI —la empresa detrás de ChatGPT— habló en el pódcast This Past Weekend sobre el creciente uso de la inteligencia artificial para tratar temas personales.
“La gente comparte aspectos muy íntimos de su vida con ChatGPT”, afirmó. “Especialmente los jóvenes lo utilizan como si fuera un terapeuta o un coach de vida. Pero esas conversaciones no están protegidas por ninguna ley de confidencialidad, como lo estarían con un médico, abogado o psicólogo”.

Altman advirtió que, actualmente, no existe una regulación legal que impida que OpenAI se vea obligada a revelar información personal contenida en conversaciones con el chatbot, si así lo ordena un tribunal.
“Si alguien habla con ChatGPT sobre asuntos delicados y luego hay una demanda, podríamos vernos forzados a entregar esa información. Y creo que eso sería un desastre”, señaló.
El CEO subrayó la urgencia de establecer un marco legal claro que garantice a los usuarios el mismo nivel de privacidad que tendrían con un terapeuta humano. “Hace apenas un año, nadie se preocupaba por esto. Pero ahora es un problema serio. ¿Cómo vamos a abordar las leyes relacionadas?”, concluyó.
Qué tan seguro es usar la IA como reemplazo de los psicólogos
Un estudio reciente de la Universidad de Stanford reveló que los chatbots de inteligencia artificial pueden reproducir estigmas, sesgos e incluso actitudes discriminatorias al tratar temas de salud mental, especialmente con personas de grupos vulnerables o marginados.
Los investigadores concluyeron que, por ahora, los modelos de IA no están preparados para reemplazar a profesionales humanos en el área del bienestar emocional y psicológico.
“El problema está en los matices”, señaló Nick Haber, autor principal del estudio. “No es solo que los modelos de lenguaje sean inadecuados para hacer terapia, sino que debemos cuestionarnos qué rol deberían tener exactamente en este ámbito”, agregó.

Aunque el informe reconoce que estas herramientas podrían servir como apoyo complementario en ciertos contextos clínicos, advierte que aún enfrentan serias limitaciones técnicas, éticas y legales.
Tanto el testimonio de Sam Altman como las conclusiones del estudio apuntan a una recomendación clara: no usar sistemas como ChatGPT como reemplazo de la terapia profesional.
Si bien pueden ser útiles para responder preguntas generales o brindar apoyo momentáneo, aún no cuentan con la preparación ni la regulación necesarias para proteger adecuadamente la salud mental de los usuarios.
Últimas Noticias
Vuelve la colección limitada 30 aniversario de PlayStation 5 y así se puede comprar en línea
En este tipo de ediciones, Sony retoma el diseño emblemático de su primera consola de video de 1994 y apuesta por la nostalgia y la exclusividad, con preventas restringidas y detalles que evocan sus orígenes
Abogado advierte sobre el peligro de Meta AI en WhatsApp: “todo lo que digas puede ser analizado”
Evitar compartir información personal y eliminar el chat son medidas recomendadas para proteger la privacidad

IA en el trabajo: las tres habilidades clave que definirán al talento del futuro
Microsoft identifica un nuevo perfil profesional que combina pensamiento crítico, aprendizaje continuo y adaptación al cambio en entornos impulsados por inteligencia artificial

Dogecoin y otras criptomonedas: así ha cambiado su valor
Estos han sido los movimientos de las criptomonedas en las últimas horas

¿Te va a reemplazar la IA en el trabajo? Esta profesora tiene una propuesta que podría ayudarte
Holly Buck, profesora asociada en la Universidad de Buffalo, propone crear un programa de empleo público para quienes pierdan sus trabajos por la IA y regular esta tecnología como un servicio público
