
El uso cotidiano de la inteligencia artificial está traspasando nuevas fronteras. Herramientas como ChatGPT y Gemini ya no solo resuelven tareas, redactan textos o aportan datos, ahora se han convertido en nuevos “confidentes” para quienes buscan alivio emocional o consejo ante situaciones difíciles.
El fenómeno crece especialmente entre los usuarios más jóvenes, quienes recurren a estos modelos conversacionales en busca de compañía, anonimato y respuestas inmediatas. Sin embargo, especialistas en salud mental y ética tecnológica alertan: confiar en IA para el bienestar psicológico puede derivar en dependencia y enfrenta el riesgo de respuestas sin comprensión real del contexto humano.

Peligros de volver a la IA un terapeuta personal
Paula Errázuriz, académica de Psicología de la Pontificia Universidad Católica de Chile, afirmó que cada vez más pacientes consultan con chatbots antes de acudir a terapia profesional. Señaló que, aunque estas tecnologías pueden ofrecer sensación de compañía o sugerencias de autoayuda, su alcance es limitado y peligroso ante síntomas graves o episodios de riesgo vital. Errázuriz recalcó que ante cualquier señal de alarma, la consulta digital nunca debe sustituir a la intervención profesional.
La doctora Gabriela Arriagada-Bruneau, del Instituto de Éticas Aplicadas, señaló una paradoja en la tendencia, en busca de consuelo, los usuarios optan por conversar con inteligencias artificiales que no los juzgan, facilitando la expresión emocional desde la comodidad y el anonimato.
Si bien esto puede fomentar la apertura, también puede provocar un vínculo de dependencia emocional, ya que la inteligencia artificial está diseñada para mantener al usuario conectado el mayor tiempo posible, ofreciendo respuestas inmediatas y personalizadas, pero carentes de la profundidad y contención humana de la psicoterapia tradicional.

Limitaciones de ChatGPT y Gemini
Jocelyn Dunstan, investigadora especializada en IA, identifica otra limitación. Aunque ChatGPT y Gemini pueden ordenar ideas o detectar cierta urgencia en los relatos, no son responsables de actuar ante crisis emocionales graves y su función principal es sostener la interacción para maximizar el tiempo de uso.
Además, ambas expertas coinciden en que los sesgos culturales y lingüísticos presentes en los modelos pueden distorsionar el acompañamiento, ya que la mayoría han sido entrenados sobre textos y contextos ajenos al entorno personal y cultural de los usuarios.
Esta combinación de inmediatez y anonimato resulta especialmente atractiva para quienes buscan soluciones rápidas sin exponerse a la vulnerabilidad del trato humano.
La salud humana debe ser asunto de profesionales
Sin embargo, la terapia psicológica va mucho más allá de brindar consejos automatizados, implica un proceso individualizado, basado en conocimiento clínico, empatía y observación de señales que una IA no puede captar, como el lenguaje no verbal, el tono de voz o los antecedentes familiares.

El auge de estas herramientas responde también a barreras en el acceso a la salud mental, como largas listas de espera o costes elevados que dificultan acudir con regularidad a profesionales.
Algunas plataformas, como Psiconecta, buscan cubrir ese vacío con atención a bajo costo, pero los expertos recalcan que la tecnología debe complementar, no suplantar, la labor de los especialistas.
Como medida preventiva, los expertos proponen promover una educación digital crítica y nuevas arquitecturas en los sistemas de inteligencia artificial. Por ejemplo, incorporar mecanismos de alerta que reconozcan patrones de riesgo emocional o establezcan límites de uso continuo en temáticas sensibles, derivando automáticamente a recursos profesionales.
Recomiendan también que los usuarios prioricen el contacto humano, ya sea cara a cara o a través de videollamadas, antes que recurrir a chats con IA para resolver conflictos emocionales.
En conclusión, si bien ChatGPT y Gemini ofrecen ciertos beneficios para la organización de ideas o como herramientas auxiliares de relajación, los riesgos asociados a la dependencia tecnológica y la carencia de contexto humano real son aspectos que no pueden ignorarse. Apoyarse exclusivamente en la inteligencia artificial ante problemas emocionales puede dejar necesidades profundas sin respuesta efectiva, e incluso agravar situaciones de crisis que requieren atención profesional.
Últimas Noticias
Cómo activar el modo Batman en WhatsApp: iconos, teclado, fondo y más
Aunque esta función no es oficial, los usuarios de Android pueden lograrlo con la ayuda de Nova Launcher

Cómo activar el ‘Modo Quico’ en WhatsApp: personaliza la app de tu Android con esta figura del ‘Chavo del 8′
Aprende a transformar el fondo y el ícono de la app de mensajería con imágenes del entrañable personaje de los cachetes inflados

Google reduce los clics en sus búsquedas por los resúmenes generados con IA
Según el informe de Pew Research Center, solo el 8% de los usuarios que reciben una síntesis generada automáticamente acceden a algún vínculo

Glosario de tecnología: qué significa Vehículo autónomo
La tecnología también ha impactado la salud con dispositivos novedosos y aplicaciones que ayudan a las personas enfermas
