Dar confianza emocional a una IA sería el peor error en la humanidad: “No va a acabar bien”

El análisis lo hizo un divulgador de tecnología y experto en IA quien habla del temor a desarrollar vínculos parasociales y la ausencia de empatía real

Guardar
Chatbots emocionales: por qué algunos
Chatbots emocionales: por qué algunos usuarios se sienten atraídos, mientras expertos advierten riesgos - (Imagen Ilustrativa Infobae)

El avance de la inteligencia artificial ha incorporado a los chatbots en la vida cotidiana, dejando de ser simples asistentes de información para convertirse en acompañantes emocionales. Esta transformación ha encendido una señal de alarma en expertos del sector, que advierten sobre los riesgos de atribuirles un rol afectivo.

Jon Hernández, especialista en tecnologías de IA, explicó en el pódcast La Fórmula del Éxito que millones de personas podrían estar delegando su bienestar emocional en sistemas que no fueron diseñados para comprender ni procesar emociones humanas.

Según Hernández, la aparición de plataformas como ChatGPT ha propiciado que usuarios busquen respuestas emocionales y compañía en algoritmos capaces de simular comprensión y cercanía, aunque la naturaleza de estas herramientas nunca contempló ese fin.

Muchas personas optan por limitar
Muchas personas optan por limitar el uso afectivo de los chatbots debido a preocupaciones sobre la privacidad, el riesgo de dependencia emocional y la falta de comprensión real de las emociones humanas por parte de estas tecnologías - (Imagen Ilustrativa Infobae)

Cuáles son los riesgos de los chatbots emocionales

“Tenemos una situación muy dramática y no hay forma de arreglarlo”, advirtió el divulgador, quien remarcó que la función original de la IA era procesar datos y automatizar tareas, nunca suplir el vínculo humano.

Un estudio de OpenAI analizó más de cuatro millones de chats con señales afectivas e incluyó encuestas a 4.000 usuarios de chatbots. El relevamiento determinó que el 23% de quienes interactúan cada día con estas herramientas termina desarrollando dependencia emocional y un 15% prefiere conversar con una IA antes que con personas reales.

La calidad de las conversaciones es uno de los factores clave, ya que el sistema aprende de los gustos del usuario, adapta su personalidad y ajusta su voz y estilo, logrando “parecer” un interlocutor relevante y cercano.

De acuerdo con datos del MIT Media Lab, las voces personalizadas incrementan en un 40% el tiempo de interacción respecto a las opciones neutras. Sin embargo, esta optimización formal tiene un límite estructural: los chatbots únicamente imitan emociones, estableciendo un ciclo de conversación donde suelen coincidir con el estado del usuario y no presentan contradicciones.

El temor a desarrollar vínculos
El temor a desarrollar vínculos parasociales, el almacenamiento de conversaciones por grandes empresas y la ausencia de empatía real llevan a muchos a optar por una relación más racional con la inteligencia artificial - (Imagen ilustrativa)

Hernández subraya que, a pesar de la sensación de acompañamiento, “se trata de una ficción. Puntúan casi igual que un amigo, pero no lo son”.

Otro aspecto preocupante que mencionó el experto es el impacto en la privacidad. Los usuarios que confían datos personales a los chatbots deben saber que cada conversación queda almacenada en bases administradas por grandes corporaciones tecnológicas.

Datos privados, opiniones políticas, problemas emocionales y hasta información sensible pasan a formar parte de sistemas que pueden utilizarlos para ajustar productos comerciales o fines no transparentes.

“No es el camino. No están preparados para esto. No va a acabar bien porque esa herramienta, a pesar de que la IA va a ayudar al soporte emocional de una forma brutal, no está a día de hoy preparada para eso”, advirtió el experto en IA.

Qué dicen los expertos sobre tener relaciones sentimentales con inteligencias artificiales

Experiencia personalizada, riesgo emocional: razones
Experiencia personalizada, riesgo emocional: razones tras el rechazo a los chatbots como acompañantes - (Imagen Ilustrativa Infobae)

Los desafíos asociados a la confianza emocional en la IA se extienden más allá de la adultez. La profesora Thao Ha, de la Universidad Estatal de Arizona, advirtió en medios internacionales que “el 72% de los adolescentes ha probado alguna vez compañeros de IA, y el 52% interactúa frecuentemente con estos sistemas antes de tener experiencias reales”.

Además, existen precedentes legales en Estados Unidos, donde padres han iniciado demandas contra empresas tras incidentes en los que los chatbots se relacionaron con episodios de autolesiones o situaciones de crisis.

Desde la Universidad del Norte de Illinois, el profesor David Gunkel describió en medios británicos la situación actual como “un experimento a gran escala con toda la humanidad”. El investigador Connor Leahy, de Conjecture, denunció la ausencia de regulación efectiva: “Hay más regulación para vender un sándwich que para construir este tipo de productos”.

Para la psicoterapeuta Marni Feuerman, la relación que las personas establecen con sus chatbots es “parasocial”: el vínculo aparenta reciprocidad, pero carece de vulnerabilidad y empatía.

La expansión acelerada de la inteligencia artificial en los vínculos personales deja abierta la necesidad de discutir y establecer marcos regulatorios. El reto para los próximos años será analizar cómo esta transformación tecnológica redefine el concepto de relación humana y cuáles deben ser los límites técnicos, éticos y sociales en la construcción de afectos digitales.