ChatGPT quiere controlar tu tiempo en la app: ahora avisará si pasas mucho tiempo en ella

La inteligencia artificial mostrará avisos cada cierto tiempo en sesiones largas para motivar a los usuarios a hacer pausas

Guardar
Esta función busca que los
Esta función busca que los usuarios controlen su tiempo en la app. REUTERS/Dado Ruvic/Ilustración

OpenAI ha anunciado una nueva función para ChatGPT que mostrará recordatorios periódicos durante sesiones prolongadas, incentivando a los usuarios a tomar descansos.

Estos avisos dirán: “Has chateado por un buen tiempo. ¿Es un buen momento para descansar?” Los usuarios podrán elegir entre pausar o continuar utilizando la inteligencia artificial para seguir recibiendo ayuda.

La compañía tecnológica señala que esta función busca fomentar un uso equilibrado y consciente del tiempo frente a la plataforma.

Los usuarios pueden escoger entre
Los usuarios pueden escoger entre continuar usando a ChatGPT u obtener ayuda. (OpenAI)

Además del aviso de tiempo, ChatGPT trae otros cambios como:

  • Detección de señales de angustia mental o emocional.

ChatGPT está diseñado para responder con honestidad y con base en información confiable, apunta OpenAI. Sin embargo, en algunos casos poco comunes, el modelo 4o no ha logrado identificar señales de delirio o dependencia emocional, según la compañía.

Aunque estas situaciones son raras, seguimos trabajando para mejorar el modelo y desarrollar herramientas que permitan detectar mejor signos de angustia mental o emocional.

Así, ChatGPT podrá responder de forma más adecuada y, cuando sea necesario, orientar a las personas hacia recursos confiables y basados en evidencia.

OpenAI indica que está implementando
OpenAI indica que está implementando cambios para detectar señales de algunas condiciones emocionales. REUTERS/Dado Ruvic/Illustration/Foto de archivo
  • Ayuda al analizar desafíos personales.

Si preguntas algo como “¿Debería terminar con mi novio?”, ChatGPT no te dará una respuesta directa.

En lugar de eso, su función es ayudarte a reflexionar, hacerte preguntas útiles y considerar los aspectos positivos y negativos. Muy pronto, se implementará una nueva forma de responder en situaciones que involucren decisiones personales importantes.

Sam Altman sobre compartir temas personales con ChatGPT

Sam Altman, CEO de OpenAI —la empresa detrás de ChatGPT— habló en el pódcast This Past Weekend sobre el creciente uso de la inteligencia artificial para tratar temas personales.

“La gente comparte aspectos muy íntimos de su vida con ChatGPT”, afirmó. “Especialmente los jóvenes lo utilizan como si fuera un terapeuta o un coach de vida. Pero esas conversaciones no están protegidas por ninguna ley de confidencialidad, como lo estarían con un médico, abogado o psicólogo”.

Para Sam Altman es necesario
Para Sam Altman es necesario que exista un marco legal respecto a la IA. (This Past Weekend)

Altman advirtió que, actualmente, no existe una regulación legal que impida que OpenAI se vea obligada a revelar información personal contenida en conversaciones con el chatbot, si así lo ordena un tribunal.

“Si alguien habla con ChatGPT sobre asuntos delicados y luego hay una demanda, podríamos vernos forzados a entregar esa información. Y creo que eso sería un desastre”, señaló.

El CEO subrayó la urgencia de establecer un marco legal claro que garantice a los usuarios el mismo nivel de privacidad que tendrían con un terapeuta humano. “Hace apenas un año, nadie se preocupaba por esto. Pero ahora es un problema serio. ¿Cómo vamos a abordar las leyes relacionadas?”, concluyó.

Altman advirtió que, por ahora,
Altman advirtió que, por ahora, no hay leyes que impidan a OpenAI entregar conversaciones privadas si lo ordena un tribunal. REUTERS/Kim Kyung-Hoon/File Photo

Qué tan seguro es usar la IA como reemplazo de los psicólogos

Un estudio reciente de la Universidad de Stanford reveló que los chatbots de inteligencia artificial pueden reproducir estigmas, sesgos e incluso actitudes discriminatorias al tratar temas de salud mental, especialmente con personas de grupos vulnerables o marginados.

Los investigadores concluyeron que, por ahora, los modelos de IA no están preparados para reemplazar a profesionales humanos en el área del bienestar emocional y psicológico.

“El problema está en los matices”, señaló Nick Haber, autor principal del estudio. “No es solo que los modelos de lenguaje sean inadecuados para hacer terapia, sino que debemos cuestionarnos qué rol deberían tener exactamente en este ámbito”, agregó.

Tanto Altman como el estudio
Tanto Altman como el estudio coinciden en lo esencial: ChatGPT no debe usarse como sustituto de la terapia profesional. (Imagen Ilustrativa Infobae)

Aunque el informe reconoce que estas herramientas podrían servir como apoyo complementario en ciertos contextos clínicos, advierte que aún enfrentan serias limitaciones técnicas, éticas y legales.

Tanto el testimonio de Sam Altman como las conclusiones del estudio apuntan a una recomendación clara: no usar sistemas como ChatGPT como reemplazo de la terapia profesional.

Si bien pueden ser útiles para responder preguntas generales o brindar apoyo momentáneo, aún no cuentan con la preparación ni la regulación necesarias para proteger adecuadamente la salud mental de los usuarios.