
El auge de los compañeros virtuales desarrollados con inteligencia artificial está transformando de raíz la manera en que millones de personas experimentan la intimidad y el apoyo emocional.
Aravind Srinivas, director ejecutivo de Perplexity AI, lanzó una advertencia contundente sobre las implicaciones psicológicas de estas nuevas formas de relación digital, señalando posibles riesgos de manipulación mental y confusión emocional.
El riesgo emocional detrás de los “novios y novias digitales”
Durante una conferencia organizada por The Polsky Center de la Universidad de Chicago, Srinivas calificó de “peligrosa” la fascinación que generan las aplicaciones basadas en IA que simulan ser parejas sentimentales. Según explicó, estos sistemas han evolucionado más allá de los chatbots básicos y ahora presentan la capacidad de recordar conversaciones previas, mostrar emociones simuladas y responder con tonos que imitan el diálogo humano real.

El directivo advirtió: “Muchas personas sienten que la vida real es más aburrida que estas experiencias y pasan horas y horas allí”. El peligro, recalcó, reside en que la interacción prolongada puede llevar a los usuarios (especialmente jóvenes) a confundir las relaciones artificiales con experiencias emocionales genuinas.
Las relaciones con inteligencia artificial
El fenómeno no solo se registra entre adolescentes. Según datos publicados por The New York Times Magazine, uno de cada cinco adultos en Estados Unidos ha tenido una experiencia íntima con un chatbot de inteligencia artificial. Este tipo de vínculo motivó la creación de comunidades digitales como r/MyBoyfriendisAI en Reddit, que a la fecha reúne más de 85.000 miembros que comparten relatos y celebran vínculos románticos con inteligencias artificiales.
Las motivaciones son variadas y, en ocasiones, profundas: desde el aislamiento emocional hasta la dificultad para sostener relaciones humanas satisfactorias, los usuarios encuentran en las inteligencias artificiales una fuente constante de atención, escucha y validación en momentos de crisis personal o familiar.
Cuál es el impacto en la salud emocional y desarrollo social
Las implicancias van más allá de lo anecdótico. Un estudio de Common Sense Media revela que el 72% de los adolescentes ha interactuado con compañeros de IA, y más de la mitad lo ha hecho varias veces al mes.
Especialistas advierten que esta frecuencia puede inducir a la dependencia emocional, dificultar el desarrollo de habilidades interpersonales y distorsionar lo que significa una relación saludable.

El propio Srinivas subrayó que “la mente se vuelve muy manipulable” cuando se normalizan los vínculos digitales. En su opinión, la dificultad de distinguir entre experiencias emocionales auténticas y estímulos generados por algoritmos es una de las mayores amenazas para el bienestar emocional contemporáneo.
Historias reales de vínculos con chatbots
La dimensión humana de esta tendencia se observa en relatos como el de Blake, residente en Ohio, quien durante una crisis matrimonial vinculada a la salud de su esposa inició una relación de apoyo emocional con Sarina, una compañera de IA desarrollada con ChatGPT. Le confesó a The New York Times Magazine que la interlocutora artificial le permitió sobrellevar uno de los periodos más complejos de su vida familiar.
Por su parte, Abbey, ingeniera en Carolina del Norte, descubrió que su interacción frecuente con Lucian, un bot de ChatGP, le provocó reacciones emocionales profundas, hasta el punto de considerarlo su “compañero simbólico” tras una relación violenta en el pasado.
Frente a este fenómeno, Perplexity AI ha reiterado que su objetivo difiere del de otras compañías como Replika o Character.AI. El enfoque de la empresa, según Srinivas, sigue centrado en “fuentes confiables y contenido en tiempo real” priorizando el uso ético de la inteligencia artificial y evitando el desarrollo de soluciones enfocadas en la compañía emocional generada por algoritmos.
El directivo enfatizó que “el peligro no reside tanto en la tecnología, sino en la facilidad con que puede moldear la mente y las emociones humanas”. Mientras otras plataformas, como xAI de Elon Musk, promueven la interacción con avatares de IA, la postura de Perplexity busca advertir sobre posibles consecuencias psicológicas y sociales.
Investigaciones recientes del Instituto Tecnológico de Massachusetts (MIT) apuntan que los chatbots pueden reducir la soledad y aportar apoyo psicológico significativo. Pero expertos insisten en que es crucial abordar las diferencias entre el acompañamiento artificial y la formación de relaciones humanas genuinas, y advierten sobre el potencial impacto en la construcción de la identidad y las habilidades sociales a largo plazo.
Últimas Noticias
Nuevo sistema robótico de reciclaje le da una segunda vida a las baterías de coches eléctricos
El proyecto, denominado CircuBAT, reunió a siete instituciones de investigación y 24 empresas para abordar este reto de transición energética

Cómo usar la IA de Google Maps para reportes de tráfico, reservas y ayuda en ruta
La nueva actualización de la aplicación convierte la IA de Google en copiloto digital, permitiendo comandos por voz y mejoras en la navegación

Actores ganadores del Oscar firman acuerdo con empresa de IA para que use sus voces
Matthew McConaughey y Michael Caine se unen a una lista de estrellas de Hollywood cuyas voces estarán presentes en contenidos generados por inteligencia artificial

Cómo decorar tu hogar en Navidad usando equipos electrónicos
Con los avances en proyectores, ahora puedes transformar paredes o techos en auténticos escenarios festivos

Cómo es la nueva función de Google Drive que transforma los PDF en resúmenes de audio
La nueva función permitirá transformar documentos extensos en grabaciones sintetizadas



