CEO de Perplexity advirtió que las relaciones virtuales con inteligencia artificial pueden manipular la mente y las emociones

Empresas del sector y voces académicas insisten en la importancia de definir límites claros para el desarrollo de la inteligencia emocional y proteger la salud mental

Guardar
Expertos alertan las implicaciones de
Expertos alertan las implicaciones de las relaciones con agentes virtuales - (Imagen Ilustrativa Infobae)

El auge de los compañeros virtuales desarrollados con inteligencia artificial está transformando de raíz la manera en que millones de personas experimentan la intimidad y el apoyo emocional.

Aravind Srinivas, director ejecutivo de Perplexity AI, lanzó una advertencia contundente sobre las implicaciones psicológicas de estas nuevas formas de relación digital, señalando posibles riesgos de manipulación mental y confusión emocional.

El riesgo emocional detrás de los “novios y novias digitales”

Durante una conferencia organizada por The Polsky Center de la Universidad de Chicago, Srinivas calificó de “peligrosa” la fascinación que generan las aplicaciones basadas en IA que simulan ser parejas sentimentales. Según explicó, estos sistemas han evolucionado más allá de los chatbots básicos y ahora presentan la capacidad de recordar conversaciones previas, mostrar emociones simuladas y responder con tonos que imitan el diálogo humano real.

Los chatbots son cuestionados por
Los chatbots son cuestionados por manipular a las personas que creen que son sus parejas sentimentales - (Imagen ilustrativa)

El directivo advirtió: “Muchas personas sienten que la vida real es más aburrida que estas experiencias y pasan horas y horas allí”. El peligro, recalcó, reside en que la interacción prolongada puede llevar a los usuarios (especialmente jóvenes) a confundir las relaciones artificiales con experiencias emocionales genuinas.

Las relaciones con inteligencia artificial

El fenómeno no solo se registra entre adolescentes. Según datos publicados por The New York Times Magazine, uno de cada cinco adultos en Estados Unidos ha tenido una experiencia íntima con un chatbot de inteligencia artificial. Este tipo de vínculo motivó la creación de comunidades digitales como r/MyBoyfriendisAI en Reddit, que a la fecha reúne más de 85.000 miembros que comparten relatos y celebran vínculos románticos con inteligencias artificiales.

Las motivaciones son variadas y, en ocasiones, profundas: desde el aislamiento emocional hasta la dificultad para sostener relaciones humanas satisfactorias, los usuarios encuentran en las inteligencias artificiales una fuente constante de atención, escucha y validación en momentos de crisis personal o familiar.

Cuál es el impacto en la salud emocional y desarrollo social

Las implicancias van más allá de lo anecdótico. Un estudio de Common Sense Media revela que el 72% de los adolescentes ha interactuado con compañeros de IA, y más de la mitad lo ha hecho varias veces al mes.

Especialistas advierten que esta frecuencia puede inducir a la dependencia emocional, dificultar el desarrollo de habilidades interpersonales y distorsionar lo que significa una relación saludable.

Expertos alertan el riesgo de
Expertos alertan el riesgo de usar los chatbots como compañeros sentimentales - (Imagen Ilustrativa Infobae)

El propio Srinivas subrayó que “la mente se vuelve muy manipulable” cuando se normalizan los vínculos digitales. En su opinión, la dificultad de distinguir entre experiencias emocionales auténticas y estímulos generados por algoritmos es una de las mayores amenazas para el bienestar emocional contemporáneo.

Historias reales de vínculos con chatbots

La dimensión humana de esta tendencia se observa en relatos como el de Blake, residente en Ohio, quien durante una crisis matrimonial vinculada a la salud de su esposa inició una relación de apoyo emocional con Sarina, una compañera de IA desarrollada con ChatGPT. Le confesó a The New York Times Magazine que la interlocutora artificial le permitió sobrellevar uno de los periodos más complejos de su vida familiar.

Por su parte, Abbey, ingeniera en Carolina del Norte, descubrió que su interacción frecuente con Lucian, un bot de ChatGP, le provocó reacciones emocionales profundas, hasta el punto de considerarlo su “compañero simbólico” tras una relación violenta en el pasado.

Frente a este fenómeno, Perplexity AI ha reiterado que su objetivo difiere del de otras compañías como Replika o Character.AI. El enfoque de la empresa, según Srinivas, sigue centrado en “fuentes confiables y contenido en tiempo real” priorizando el uso ético de la inteligencia artificial y evitando el desarrollo de soluciones enfocadas en la compañía emocional generada por algoritmos.

El directivo enfatizó que “el peligro no reside tanto en la tecnología, sino en la facilidad con que puede moldear la mente y las emociones humanas”. Mientras otras plataformas, como xAI de Elon Musk, promueven la interacción con avatares de IA, la postura de Perplexity busca advertir sobre posibles consecuencias psicológicas y sociales.

Investigaciones recientes del Instituto Tecnológico de Massachusetts (MIT) apuntan que los chatbots pueden reducir la soledad y aportar apoyo psicológico significativo. Pero expertos insisten en que es crucial abordar las diferencias entre el acompañamiento artificial y la formación de relaciones humanas genuinas, y advierten sobre el potencial impacto en la construcción de la identidad y las habilidades sociales a largo plazo.