Expertos alertan que recurrir a Gemini y ChatGPT como apoyo emocional puede llevar a dependencia y respuestas sin contexto

Los chatbots brindan apoyo inmediato, aunque carente de empatía clínica, incrementando la dependencia y el riesgo de atención inadecuada para quienes enfrentan problemas emocionales severos

Guardar
El uso extendido de chatbots
El uso extendido de chatbots para resolver inquietudes emocionales responde a la falta de acceso a terapeutas, pero puede dejar sin resolver necesidades profundas y ampliar la brecha entre tecnología y atención profesional adecuada

El uso cotidiano de la inteligencia artificial está traspasando nuevas fronteras. Herramientas como ChatGPT y Gemini ya no solo resuelven tareas, redactan textos o aportan datos, ahora se han convertido en nuevos “confidentes” para quienes buscan alivio emocional o consejo ante situaciones difíciles.

El fenómeno crece especialmente entre los usuarios más jóvenes, quienes recurren a estos modelos conversacionales en busca de compañía, anonimato y respuestas inmediatas. Sin embargo, especialistas en salud mental y ética tecnológica alertan: confiar en IA para el bienestar psicológico puede derivar en dependencia y enfrenta el riesgo de respuestas sin comprensión real del contexto humano.

Hay un gran problema en
Hay un gran problema en delegarle las responsabilidades de los profesionales de la salud mental a la IA - (Imagen Ilustrativa Infobae)

Peligros de volver a la IA un terapeuta personal

Paula Errázuriz, académica de Psicología de la Pontificia Universidad Católica de Chile, afirmó que cada vez más pacientes consultan con chatbots antes de acudir a terapia profesional. Señaló que, aunque estas tecnologías pueden ofrecer sensación de compañía o sugerencias de autoayuda, su alcance es limitado y peligroso ante síntomas graves o episodios de riesgo vital. Errázuriz recalcó que ante cualquier señal de alarma, la consulta digital nunca debe sustituir a la intervención profesional.

La doctora Gabriela Arriagada-Bruneau, del Instituto de Éticas Aplicadas, señaló una paradoja en la tendencia, en busca de consuelo, los usuarios optan por conversar con inteligencias artificiales que no los juzgan, facilitando la expresión emocional desde la comodidad y el anonimato.

Si bien esto puede fomentar la apertura, también puede provocar un vínculo de dependencia emocional, ya que la inteligencia artificial está diseñada para mantener al usuario conectado el mayor tiempo posible, ofreciendo respuestas inmediatas y personalizadas, pero carentes de la profundidad y contención humana de la psicoterapia tradicional.

Expertos en salud mental y
Expertos en salud mental y ética tecnológica subrayan que la interacción digital con IA puede facilitar la expresión emocional, pero advierten que la ausencia de diagnóstico real y la falta de responsabilidad ante crisis generan nuevas vulnerabilidades - (Imagen ilustrativa Infobae)

Limitaciones de ChatGPT y Gemini

Jocelyn Dunstan, investigadora especializada en IA, identifica otra limitación. Aunque ChatGPT y Gemini pueden ordenar ideas o detectar cierta urgencia en los relatos, no son responsables de actuar ante crisis emocionales graves y su función principal es sostener la interacción para maximizar el tiempo de uso.

Además, ambas expertas coinciden en que los sesgos culturales y lingüísticos presentes en los modelos pueden distorsionar el acompañamiento, ya que la mayoría han sido entrenados sobre textos y contextos ajenos al entorno personal y cultural de los usuarios.

Esta combinación de inmediatez y anonimato resulta especialmente atractiva para quienes buscan soluciones rápidas sin exponerse a la vulnerabilidad del trato humano.

La salud humana debe ser asunto de profesionales

Sin embargo, la terapia psicológica va mucho más allá de brindar consejos automatizados, implica un proceso individualizado, basado en conocimiento clínico, empatía y observación de señales que una IA no puede captar, como el lenguaje no verbal, el tono de voz o los antecedentes familiares.

Psicólogos y tecnólogos coinciden en
Psicólogos y tecnólogos coinciden en que herramientas como ChatGPT y Gemini no sustituyen la intervención humana, insistiendo en la necesidad de prevenir la dependencia y priorizar el acompañamiento profesional ante síntomas graves - (Imagen ilustrativa Infobae)

El auge de estas herramientas responde también a barreras en el acceso a la salud mental, como largas listas de espera o costes elevados que dificultan acudir con regularidad a profesionales.

Algunas plataformas, como Psiconecta, buscan cubrir ese vacío con atención a bajo costo, pero los expertos recalcan que la tecnología debe complementar, no suplantar, la labor de los especialistas.

Como medida preventiva, los expertos proponen promover una educación digital crítica y nuevas arquitecturas en los sistemas de inteligencia artificial. Por ejemplo, incorporar mecanismos de alerta que reconozcan patrones de riesgo emocional o establezcan límites de uso continuo en temáticas sensibles, derivando automáticamente a recursos profesionales.

Recomiendan también que los usuarios prioricen el contacto humano, ya sea cara a cara o a través de videollamadas, antes que recurrir a chats con IA para resolver conflictos emocionales.

En conclusión, si bien ChatGPT y Gemini ofrecen ciertos beneficios para la organización de ideas o como herramientas auxiliares de relajación, los riesgos asociados a la dependencia tecnológica y la carencia de contexto humano real son aspectos que no pueden ignorarse. Apoyarse exclusivamente en la inteligencia artificial ante problemas emocionales puede dejar necesidades profundas sin respuesta efectiva, e incluso agravar situaciones de crisis que requieren atención profesional.