
Durante años, las advertencias sobre la adicción tecnológica se centraron en las redes sociales, los videojuegos y los teléfonos inteligentes. Pero ahora, un nuevo tipo de interacción digital empieza a despertar señales de alerta, y es precisamente la que se da entre humanos y modelos de lenguaje como ChatGPT.
Según una investigación conjunta del MIT Media Lab y OpenAI, utilizar intensivamente esta inteligencia artificial podría afectar el bienestar emocional y social de ciertos usuarios, en especial de aquellos más comprometidos con el sistema.

Uusuarios podría crear con ChatGPT vínculos no saludables
ChatGPT se volvió una herramienta habitual para millones de personas. Está presente en oficinas, escuelas, redacciones, consultas legales y hasta en conversaciones personales durante el tiempo libre.
Su habilidad para mantener diálogos fluidos y ofrecer respuestas contextualizadas lo ha convertido en una suerte de asistente digital confiable. Pero esa misma capacidad para simular compañía, empatía o entendimiento, también puede generar vínculos que no siempre son saludables.
Quiénes son las personas más afectadas con la IA

La investigación, titulada ‘Cómo los chatbots de IA afectan nuestro bienestar social y emocional: nuevos hallazgos de investigación’, analizó a más de 5.000 personas y detectó indicios de una relación problemática en un segmento específico de usuarios.
Los investigadores identificaron comportamientos compatibles con una posible adicción digital, como “preocupación, síntomas de abstinencia, pérdida de control y modificación del estado de ánimo”.
Estos indicios no eran generalizados, pero sí se presentaban con claridad en los llamados “usuarios avanzados”, definidos como personas que pasan largos períodos interactuando con ChatGPT, muchas veces varias veces al día y en múltiples contextos.
Cuando no representa un peligro el uso de ChatGPT

Este grupo no representa al grueso de los usuarios. De hecho, la gran mayoría utiliza ChatGPT de manera esporádica, para resolver dudas puntuales o acelerar tareas cotidianas.
Es decir, no se trata de un riesgo extendido, pero sí de una advertencia sobre cómo ciertas dinámicas de uso intensivo pueden derivar en patrones similares a los que se observan en otros tipos de dependencia tecnológica.
El riesgo emocional del Modo de Voz Avanzado
Uno de los aspectos más llamativos del estudio fue el rol del Modo de Voz Avanzado, una funcionalidad que permite mantener conversaciones en tiempo real con la inteligencia artificial.
Dentro de los usuarios que accedieron a esta herramienta, se detectó una mayor propensión a establecer un vínculo afectivo con el modelo.
Aunque los investigadores aclararon que se trata de una fracción reducida del total de usuarios, consideraron significativo el hecho de que algunas personas pudieran llegar a atribuir cualidades humanas a la IA, al punto de sentirse acompañadas o emocionalmente comprendidas por ella.
Esto plantea preguntas difíciles: ¿Qué ocurre cuando un sistema automatizado empieza a reemplazar interacciones humanas? ¿Hasta qué punto una conversación con una máquina puede satisfacer necesidades afectivas? ¿Y cuál es el límite entre una herramienta útil y una presencia constante que interfiere con la vida cotidiana?
Dependencia emocional por el uso de la IA
La investigación del MIT Media Lab y OpenAI no ofrece respuestas definitivas, pero deja en claro que el uso intensivo de herramientas de IA debe evaluarse no solo desde la eficiencia o la innovación tecnológica, también desde el impacto emocional y psicológico.
En palabras de los propios autores del estudio, el fenómeno merece seguimiento y análisis más profundos, ya que “el grupo que mostró signos de dependencia era tan reducido que sería complejo estudiar su impacto a gran escala”, aunque no por ello menos relevante.
ChatGPT no fue diseñado como sustituto emocional, pero su estructura conversacional y su disponibilidad constante lo colocan en una posición singular.
A medida que más personas interactúan con modelos como este, los investigadores sugieren prestar atención no solo a lo que hacen, mas bien a cómo nos hacen sentir.
Una herramienta útil puede convertirse en una compañía persistente, y esa compañía, si no se administra con cuidado, podría ocupar espacios que antes estaban reservados a vínculos humanos.
Últimas Noticias
¿Sabías que tus fotos no se borran completamente aunque pienses que las eliminaste? Cómo comprobarlo y el paso a paso para resolverlo
La función de papelera en Google Fotos solo traslada archivos del teléfono a una zona temporal, pero no los quita de inmediato del sistema sincronizado. Qué pasa con los usuarios de Apple

Según la IA estos son los números con menos posibilidad de ganar la lotería en abril
Herramientas de análisis revelan combinaciones que históricamente se repiten menos durante este mes, dando pistas a quienes buscan patrones entre el azar

Todo lo que debes saber sobre llevar vapes en aviones: regulaciones y consejos útiles
Aunque los vapes no producen humo como los cigarrillos tradicionales, los sistemas electrónicos pueden interferir con los mecanismos de seguridad de la aeronave

Cómo eliminar grasa y polvo de tus pantallas sin arruinarlas
Una mezcla segura, cero productos agresivos y el momento justo pueden garantizar una higiene eficaz sin comprometer el funcionamiento de tu smartphone, tableta, ordenador o televisor

La inteligencia artificial podría consumir el 5% de la electricidad en América Latina para 2035
Según la Olade, los 455 centros de datos de IA en la región están generando una demanda eléctrica que podría superar la capacidad de suministro en los próximos años
