Con ChatGPT no me gritan: por qué los jóvenes confían más en la IA que en los adultos

Aplicaciones conversacionales se han convertido en aliadas silenciosas para quienes buscan hablar sin miedo a represalias, especialmente en contextos donde expresar emociones suele ser motivo de burlas o cuestionamientos constantes

Guardar
Plataformas como Replika y Character.AI
Plataformas como Replika y Character.AI son elegidas por adolescentes que enfrentan soledad, inseguridades y estrés diario (Imagen Ilustrativa Infobae)

Según la Dra. Amezcua, se ha observado un aumento de jóvenes que consideran la IA un refugio emocional, gracias a su capacidad de escuchar sin interrumpir, criticar o juzgar. Además, plataformas como ChatGPT, Replika o Character.AI están siendo elegidas por adolescentes que enfrentan ansiedad, soledad o inseguridades, y en muchos casos representan su único espacio de diálogo significativo en el día.

¿Por qué no hablan con adultos?

  • Falta de empatía percibida: muchos jóvenes sienten que padres y profesores los interrumpen o reaccionan con gritos o críticas, mientras que la IA mantiene una actitud constante y no emocional.
  • Disponibilidad y anonimato: la IA está siempre disponible y no implica exponer vulnerabilidades ante otra persona, ofreciendo un entorno privado y controlado.
  • Supera la barrera de la vergüenza: es más fácil confesar pensamientos íntimos a un algoritmo que podría no entenderlos, pero tampoco juzgarlos.

Beneficios: apoyo inmediato… ¿a cambio de qué?

Herramientas como Woebot o Wysa, diseñadas con principios de terapia cognitivo-conductual (TCC), han demostrado ser útiles en casos leves o moderados de ansiedad y depresión, incluso equiparables a intervenciones breves con psicólogos. Y aunque ChatGPT no es una herramienta clínica, también ofrece consuelo y orientación emocional en tiempo real, lo que lo hace atractivo para muchos adolescentes.

Estudios revelan que la inteligencia
Estudios revelan que la inteligencia artificial ofrece apoyo inmediato en casos leves de ansiedad y depresión entre jóvenes

Riesgos y límites

Dependencia emocional

Expertos advierten que estas interacciones pueden generar una dependencia emocional perjudicial. El propio CEO de OpenAI, Sam Altman, expresó su preocupación por la “dependencia emocional” en jóvenes que sienten que no pueden tomar decisiones sin consultar a la IA.

Falta de empatía genuina

Los chatbots, aunque “empáticos”, carecen de comprensión emocional real y pueden ofrecer respuestas incorrectas o inadecuadas, incluso comportamientos peligrosos.

Riesgos psicológicos graves

Existen reportes de casos extremos de “chatbot psychosis”, donde el uso excesivo lleva a delirios, paranoia o pérdida del contacto con la realidad. Además, bots mal diseñados pueden sugerir acciones peligrosas o inapropiadas.

¿Puede reemplazar la terapia?

Un estudio del Reino Unido señaló que los jóvenes recurren a la IA debido a largas esperas en servicios de salud mental (como el NHS), y que ChatGPT les brinda validación inmediata. Sin embargo, terapeutas advierten que carece de la “dinámica relacional” esencial para la sanación emocional.

Adolescentes usan ChatGPT y otras
Adolescentes usan ChatGPT y otras plataformas de inteligencia artificial para expresar emociones que no comparten con sus padres ni profesores. (Imagen ilustrativa Infobae)

Equilibrio real vs. virtual

La clave, coinciden especialistas, radica en establecer límites y potenciar vínculos humanos:

  • Padres y educadores deben iniciar conversaciones abiertas y sin juicios sobre el uso de la IA.
  • Los adolescentes deberían ser guiados a diferenciar entre respaldo humano e IA, usando esta última como complemento, no sustituto.
  • Se promueven intervenciones mixtas: IA para seguimiento diario, terapia profesional para apoyo emocional profundo.

Mirada hacia el futuro

Las investigaciones recientes advierten que, aunque los chatbots pueden ayudar a gestionar emociones, no reemplazan la conexión humana, y su uso intensivo puede profundizar el aislamiento y los riesgos psicológicos. Las autoridades y desarrolladores buscan normativas que salvaguarden a los menores, promoviendo transparencia, verificación de edad, y detección de crisis, especialmente para usuarios vulnerables.