
El uso cotidiano de la inteligencia artificial está traspasando nuevas fronteras. Herramientas como ChatGPT y Gemini ya no solo resuelven tareas, redactan textos o aportan datos, ahora se han convertido en nuevos “confidentes” para quienes buscan alivio emocional o consejo ante situaciones difíciles.
El fenómeno crece especialmente entre los usuarios más jóvenes, quienes recurren a estos modelos conversacionales en busca de compañía, anonimato y respuestas inmediatas. Sin embargo, especialistas en salud mental y ética tecnológica alertan: confiar en IA para el bienestar psicológico puede derivar en dependencia y enfrenta el riesgo de respuestas sin comprensión real del contexto humano.

Peligros de volver a la IA un terapeuta personal
Paula Errázuriz, académica de Psicología de la Pontificia Universidad Católica de Chile, afirmó que cada vez más pacientes consultan con chatbots antes de acudir a terapia profesional. Señaló que, aunque estas tecnologías pueden ofrecer sensación de compañía o sugerencias de autoayuda, su alcance es limitado y peligroso ante síntomas graves o episodios de riesgo vital. Errázuriz recalcó que ante cualquier señal de alarma, la consulta digital nunca debe sustituir a la intervención profesional.
La doctora Gabriela Arriagada-Bruneau, del Instituto de Éticas Aplicadas, señaló una paradoja en la tendencia, en busca de consuelo, los usuarios optan por conversar con inteligencias artificiales que no los juzgan, facilitando la expresión emocional desde la comodidad y el anonimato.
Si bien esto puede fomentar la apertura, también puede provocar un vínculo de dependencia emocional, ya que la inteligencia artificial está diseñada para mantener al usuario conectado el mayor tiempo posible, ofreciendo respuestas inmediatas y personalizadas, pero carentes de la profundidad y contención humana de la psicoterapia tradicional.

Limitaciones de ChatGPT y Gemini
Jocelyn Dunstan, investigadora especializada en IA, identifica otra limitación. Aunque ChatGPT y Gemini pueden ordenar ideas o detectar cierta urgencia en los relatos, no son responsables de actuar ante crisis emocionales graves y su función principal es sostener la interacción para maximizar el tiempo de uso.
Además, ambas expertas coinciden en que los sesgos culturales y lingüísticos presentes en los modelos pueden distorsionar el acompañamiento, ya que la mayoría han sido entrenados sobre textos y contextos ajenos al entorno personal y cultural de los usuarios.
Esta combinación de inmediatez y anonimato resulta especialmente atractiva para quienes buscan soluciones rápidas sin exponerse a la vulnerabilidad del trato humano.
La salud humana debe ser asunto de profesionales
Sin embargo, la terapia psicológica va mucho más allá de brindar consejos automatizados, implica un proceso individualizado, basado en conocimiento clínico, empatía y observación de señales que una IA no puede captar, como el lenguaje no verbal, el tono de voz o los antecedentes familiares.

El auge de estas herramientas responde también a barreras en el acceso a la salud mental, como largas listas de espera o costes elevados que dificultan acudir con regularidad a profesionales.
Algunas plataformas, como Psiconecta, buscan cubrir ese vacío con atención a bajo costo, pero los expertos recalcan que la tecnología debe complementar, no suplantar, la labor de los especialistas.
Como medida preventiva, los expertos proponen promover una educación digital crítica y nuevas arquitecturas en los sistemas de inteligencia artificial. Por ejemplo, incorporar mecanismos de alerta que reconozcan patrones de riesgo emocional o establezcan límites de uso continuo en temáticas sensibles, derivando automáticamente a recursos profesionales.
Recomiendan también que los usuarios prioricen el contacto humano, ya sea cara a cara o a través de videollamadas, antes que recurrir a chats con IA para resolver conflictos emocionales.
En conclusión, si bien ChatGPT y Gemini ofrecen ciertos beneficios para la organización de ideas o como herramientas auxiliares de relajación, los riesgos asociados a la dependencia tecnológica y la carencia de contexto humano real son aspectos que no pueden ignorarse. Apoyarse exclusivamente en la inteligencia artificial ante problemas emocionales puede dejar necesidades profundas sin respuesta efectiva, e incluso agravar situaciones de crisis que requieren atención profesional.
Últimas Noticias
Liberar espacio en el teléfono: cómo encontrar y borrar archivos ocultos en WhatsApp
Herramientas como la localización de archivos grandes, mensajes temporales y el manejo de la papelera interna permiten recuperar espacio y optimizar el funcionamiento general del smartphone

CEO de Google DeepMind cree que la forma de Meta de contratar a la competencia “no está actualmente a la vanguardia”
Demis Hassabis analizó la estrategia de Meta de contratar a expertos de la competencia y señaló que recuperar el liderazgo en IA requiere más que salarios millonarios
Los 3 electrodomésticos que también sufren en el verano por altas temperaturas: cómo cuidarlos
Aspectos como la ubicación, la limpieza y el uso correcto de cada aparato previene malos olores en su interior y reduce los incrementos de consumo de energía y pagos de dinero

Bill Gates confiesa si estamos ante la desaparición de los programadores por la IA: esta es la verdad
Frente a la automatización y la influencia creciente de la inteligencia artificial, Gates aseguró que la creatividad y el juicio humano preservarán la relevancia del trabajo de programador a largo plazo
