Podrías volverte adicto a ChatGPT: un estudio advirtió los riesgos del uso excesivo de la IA

Resultados preliminares revelan posibles efectos en el equilibrio emocional de personas que interactúan a diario con sistemas de inteligencia artificial generativa

Guardar
Un estudio identificó conductas inusuales
Un estudio identificó conductas inusuales en usuarios intensivos de asistentes digitales, asociadas a patrones similares a los de una dependencia emocional con herramientas automatizadas - (AP Foto/Michael Dwyer, Archivo)

Durante años, las advertencias sobre la adicción tecnológica se centraron en las redes sociales, los videojuegos y los teléfonos inteligentes. Pero ahora, un nuevo tipo de interacción digital empieza a despertar señales de alerta, y es precisamente la que se da entre humanos y modelos de lenguaje como ChatGPT.

Según una investigación conjunta del MIT Media Lab y OpenAI, utilizar intensivamente esta inteligencia artificial podría afectar el bienestar emocional y social de ciertos usuarios, en especial de aquellos más comprometidos con el sistema.

Investigadores detectaron que algunos usuarios
Investigadores detectaron que algunos usuarios desarrollan vínculos problemáticos con modelos de lenguaje, al punto de sentir compañía emocional - (Imagen Ilustrativa Infobae)

Uusuarios podría crear con ChatGPT vínculos no saludables

ChatGPT se volvió una herramienta habitual para millones de personas. Está presente en oficinas, escuelas, redacciones, consultas legales y hasta en conversaciones personales durante el tiempo libre.

Su habilidad para mantener diálogos fluidos y ofrecer respuestas contextualizadas lo ha convertido en una suerte de asistente digital confiable. Pero esa misma capacidad para simular compañía, empatía o entendimiento, también puede generar vínculos que no siempre son saludables.

Quiénes son las personas más afectadas con la IA

El estudio reveló que algunas
El estudio reveló que algunas personas perciben al chatbot como figura afectiva, generando implicancias inesperadas para la salud mental - (Imagen Ilustrativa Infobae)

La investigación, titulada ‘Cómo los chatbots de IA afectan nuestro bienestar social y emocional: nuevos hallazgos de investigación’, analizó a más de 5.000 personas y detectó indicios de una relación problemática en un segmento específico de usuarios.

Los investigadores identificaron comportamientos compatibles con una posible adicción digital, como “preocupación, síntomas de abstinencia, pérdida de control y modificación del estado de ánimo”.

Estos indicios no eran generalizados, pero sí se presentaban con claridad en los llamados “usuarios avanzados”, definidos como personas que pasan largos períodos interactuando con ChatGPT, muchas veces varias veces al día y en múltiples contextos.

Cuando no representa un peligro el uso de ChatGPT

ChatGPT, más que un asistente
ChatGPT, más que un asistente digital, podría convertirse en una presencia invasiva - EFE/ Wu Hao

Este grupo no representa al grueso de los usuarios. De hecho, la gran mayoría utiliza ChatGPT de manera esporádica, para resolver dudas puntuales o acelerar tareas cotidianas.

Es decir, no se trata de un riesgo extendido, pero sí de una advertencia sobre cómo ciertas dinámicas de uso intensivo pueden derivar en patrones similares a los que se observan en otros tipos de dependencia tecnológica.

El riesgo emocional del Modo de Voz Avanzado

Uno de los aspectos más llamativos del estudio fue el rol del Modo de Voz Avanzado, una funcionalidad que permite mantener conversaciones en tiempo real con la inteligencia artificial.

Dentro de los usuarios que accedieron a esta herramienta, se detectó una mayor propensión a establecer un vínculo afectivo con el modelo.

Aunque los investigadores aclararon que se trata de una fracción reducida del total de usuarios, consideraron significativo el hecho de que algunas personas pudieran llegar a atribuir cualidades humanas a la IA, al punto de sentirse acompañadas o emocionalmente comprendidas por ella.

Esto plantea preguntas difíciles: ¿Qué ocurre cuando un sistema automatizado empieza a reemplazar interacciones humanas? ¿Hasta qué punto una conversación con una máquina puede satisfacer necesidades afectivas? ¿Y cuál es el límite entre una herramienta útil y una presencia constante que interfiere con la vida cotidiana?

Dependencia emocional por el uso de la IA

La investigación del MIT Media Lab y OpenAI no ofrece respuestas definitivas, pero deja en claro que el uso intensivo de herramientas de IA debe evaluarse no solo desde la eficiencia o la innovación tecnológica, también desde el impacto emocional y psicológico.

En palabras de los propios autores del estudio, el fenómeno merece seguimiento y análisis más profundos, ya que “el grupo que mostró signos de dependencia era tan reducido que sería complejo estudiar su impacto a gran escala”, aunque no por ello menos relevante.

ChatGPT no fue diseñado como sustituto emocional, pero su estructura conversacional y su disponibilidad constante lo colocan en una posición singular.

A medida que más personas interactúan con modelos como este, los investigadores sugieren prestar atención no solo a lo que hacen, mas bien a cómo nos hacen sentir.

Una herramienta útil puede convertirse en una compañía persistente, y esa compañía, si no se administra con cuidado, podría ocupar espacios que antes estaban reservados a vínculos humanos.