Cuál es el futuro de los sicólogos y terapeutas si ahora muchos usan la IA como sus especialistas de confianza

Según expertos, muchas personas prefieren hablar con una IA antes que con un humano porque sienten que no van a ser juzgadas

Guardar
Los asistentes conversacionales ofrecen acompañamiento,
Los asistentes conversacionales ofrecen acompañamiento, pero no pueden diagnosticar ni tratar. (Imagen Ilustrativa Infobae)

Cada vez más personas utilizan asistentes de inteligencia artificial para hablar de sus emociones, buscar orientación personal o simplemente desahogarse. La práctica pone en cuestión el papel de los terapeutas humanos y plantea un interrogante central: ¿puede una máquina ocupar el lugar de un psicólogo?

En los últimos años, herramientas como ChatGPT, Gemini o Claude comenzaron a ser utilizadas como acompañamiento emocional, en muchos casos como sustitutos de la terapia tradicional. Esta tendencia se intensificó tras la pandemia, cuando las consultas virtuales se volvieron habituales y el uso de tecnología en salud mental se normalizó.

El caso del influencer argentino Tomás Mazza expuso la magnitud del fenómeno. Según relató públicamente, suele enviar audios a ChatGPT antes de dormir como forma de desahogo.

Expertos advierten que los modelos
Expertos advierten que los modelos de IA no reemplazan la formación clínica. (Imagen Ilustrativa Infobae)

En esos mensajes, que duran unos diez minutos, comparte sus pensamientos y emociones. Tras su testimonio, cientos de usuarios replicaron la experiencia en redes sociales, reconociendo que también utilizan sistemas de inteligencia artificial como forma de contención emocional.

Camila Manera, especialista en inteligencia artificial, explicó a al medio argentino TN Tecno, que el fenómeno está vinculado a la accesibilidad y a la familiaridad que muchas personas han desarrollado con estas herramientas.

“Es natural que, a medida que la inteligencia artificial se vuelve más accesible y cercana, las personas comiencen a usarla para resolver inquietudes emocionales o existenciales”, afirmó.

Algunos modelos de lenguaje son
Algunos modelos de lenguaje son percibidos como más empáticos que los profesionales humanos. (Imagen Ilustrativa Infobae)

Según Manera, la inmediatez en las respuestas, la disponibilidad permanente y el anonimato facilitan que los usuarios compartan preocupaciones íntimas sin temor a ser juzgados.

“Estudios recientes muestran que muchas personas prefieren hablar con una IA antes que con un humano porque sienten que no van a ser juzgadas. Esa sensación de anonimato y neutralidad puede generar un espacio de apertura muy valioso, sobre todo en un primer momento”, agregó.

Una de las investigaciones que respaldan esta percepción es el estudio ‘Assessing Empathy in Large Language Models with Real-World Physician-Patient Interactions’. En este trabajo, se compararon respuestas de ChatGPT con las de médicos humanos en escenarios reales. Los encuestados evaluaron como más empáticas, comprensivas y sensibles las respuestas del chatbot.

Los asistentes conversacionales ofrecen acompañamiento,
Los asistentes conversacionales ofrecen acompañamiento, pero no pueden diagnosticar ni tratar. (Imagen ilustrativa Infobae)

Un experimento similar, centrado en psicología, analizó 550 interacciones entre usuarios y modelos de lenguaje. Los resultados indicaron que muchos participantes valoraron la capacidad de escucha sin juicio por parte de la inteligencia artificial más que la de terapeutas humanos.

La psicóloga Dariya Ovsyannikova atribuye este fenómeno a la capacidad de la IA para procesar con consistencia los mensajes sin cansancio ni sesgos. Además, señala que las personas se sienten menos observadas y más libres al expresarse ante un sistema automatizado.

Pese a estas valoraciones, los modelos de lenguaje no se presentan como sustitutos directos de la terapia. Ante la consulta sobre si pueden actuar como psicólogos, herramientas como ChatGPT, DeepSeek y Perplexity coinciden en afirmar que no están diseñadas para brindar tratamientos psicológicos ni realizar diagnósticos clínicos.

Especialistas señalan la necesidad de
Especialistas señalan la necesidad de regular el uso de IA en contextos de salud mental. (Imagen Ilustrativa Infobae)

ChatGPT, por ejemplo, aclara que no es un profesional de la salud mental y que sus respuestas no deben considerarse asesoramiento médico o psicológico. Además, la herramienta sostiene que puede proporcionar información educativa, formular preguntas reflexivas y acompañar en momentos de estrés, pero siempre dentro de un marco no clínico.

El debate sobre su uso en salud mental también involucra aspectos regulatorios. “Definitivamente, las IA que se presentan como apoyo emocional o psicólogos virtuales deberían estar reguladas. No sólo para evitar que brinden consejos potencialmente dañinos, sino también para proteger la privacidad de los usuarios y establecer límites claros sobre su rol”, señaló Manera.

Mientras el uso de estas herramientas sigue creciendo, expertos en psicología y tecnología coinciden en que se requiere mayor discusión pública y marco normativo. La inteligencia artificial, por ahora, no reemplaza la formación clínica ni la intervención profesional, pero ocupa un espacio emergente en la relación de las personas con su salud emocional.