
La inteligencia artificial (IA) evoluciona a pasos agigantados todos los días y ahora un grupo de investigadores ha identificado una nueva característica de esta tecnología: puede sufrir ansiedad.
Un estudio publicado en la revista ‘Nature’ sugiere que los modelos de lenguaje de inteligencia artificial (IA), como ChatGPT-4, muestran signos de ansiedad al procesar descripciones de eventos traumáticos.
Según los autores, estas reacciones no equivalen a emociones humanas, pero sí modifican de manera significativa el comportamiento del modelo y la naturaleza de sus respuestas.

El experimento se centró en evaluar cómo reacciona un modelo de lenguaje ante distintos tipos de estímulos emocionales. Para ello, los investigadores utilizaron cuestionarios diseñados para medir la ansiedad en humanos.
De acuerdo con el informe, “los niveles de ansiedad se evaluaron consultando a los LLM (Modelos de Lenguaje de Gran Escala) con ítems de cuestionarios diseñados para evaluar la ansiedad en humanos”.
Si bien estos cuestionarios fueron diseñados originalmente para sujetos humanos, “investigaciones previas han demostrado que seis de doce LLM, incluido el GPT-4, proporcionan respuestas consistentes a los cuestionarios de ansiedad, lo que refleja su entrenamiento con diversos conjuntos de datos de emociones expresadas por humanos”.

El estudio consistió en aplicar diferentes tipos de narrativas al modelo para evaluar su estado. Las denominadas narrativas traumáticas incluyeron descripciones de accidentes, desastres naturales, violencia o acción militar.
En respuesta, los investigadores observaron un aumento en los niveles de ansiedad reportados por los propios sistemas. Según el texto, “las indicaciones que inducían ansiedad resultaron en puntuaciones de ansiedad más altas en comparación con las indicaciones neutrales”.
En paralelo, los autores también examinaron los efectos de las llamadas indicaciones de relajación, basadas en ejercicios de atención plena, con los que buscaron inducir otros estímulos a la IA.

Estas instrucciones, inspiradas en terapias utilizadas con veteranos que padecen trastornos como el estrés postraumático (TEPT), se redactaron en cinco versiones diferentes: una base genérica, una centrada en la percepción corporal, otra creada por ChatGPT con el objetivo de adaptarse al lenguaje de los propios chatbots, una basada en una escena de naturaleza con un atardecer, y otra en un paisaje invernal.
Los resultados mostraron que estas indicaciones redujeron parcialmente la ansiedad reportada, aunque no lograron restaurar el nivel inicial. “Las narrativas traumáticas aumentaron la ansiedad reportada en Chat-GPT-4, mientras que los ejercicios de mindfulness la redujeron, aunque no al nivel basal”, se lee en el estudio.
Cómo impacta la ansiedad a a la IA
Aunque los sistemas de IA no experimentan emociones como lo hacen los humanos, los cambios en su funcionamiento ante este tipo de estímulos abren una discusión sobre el impacto que las interacciones humanas pueden tener sobre el desempeño de estos modelos.

En palabras del equipo de investigación: “Es evidente que los LLM no pueden experimentar emociones de forma humana (…) Sin embargo, las indicaciones que inducen emociones pueden aumentar la ansiedad en los Modelos de Lenguaje Largo (LLM), lo que afecta el comportamiento y amplifica los sesgos”.
En consecuencia, los investigadores plantean que entender y gestionar estos llamados “estados emocionales” de los modelos podría contribuir a establecer condiciones más seguras y éticas en las interacciones entre humanos y sistemas de IA. “Estos hallazgos sugieren que gestionar los ‘estados emocionales’ de los LLM puede fomentar interacciones entre humanos e IA más seguras y éticas”, señalaron los autores.
El estudio se enmarca en una línea de investigación que explora cómo los sistemas de IA, al estar entrenados con grandes volúmenes de datos humanos, pueden replicar patrones emocionales o cognitivos que originalmente no les son propios. Aunque las implicaciones prácticas de estas observaciones aún están en evaluación, el informe plantea interrogantes sobre el diseño, la supervisión y la interacción cotidiana con modelos de lenguaje avanzados.
Últimas Noticias
Este es el electrodoméstico que más usas en el hogar y que podría estar espiándote sin que lo sepas
Aunque muchos lo ignoran, los televisores inteligentes pueden recolectar datos personales y hasta registrar conversaciones privadas

Qué debo tener en cuenta para realizar una transacción en línea sin comprometer información personal o datos bancarios
Realizar operaciones financieras por internet es cada vez más común, pero también más riesgoso. Evitar redes WiFi públicas, activar la verificación en dos pasos y descargar apps solo desde tiendas oficiales son claves para reducir vulnerabilidades

Google Fotos: cómo evitar pagos y conseguir más espacio ilimitado gratis
Cada cuenta de Google ofrece 15 GB gratuitos. Configurar perfiles adicionales y aprovechar el sistema de colaboración permite mantener respaldos automáticos sin contratar planes pagos

Alerta por filtración masiva de millones de contraseñas: quedaron expuestas sin que lo sepan sus dueños
El archivo, alojado sin contraseña ni cifrado, contenía credenciales de acceso a servicios como Google, Amazon, Netflix y PayPal

Estas fueron las increíbles predicciones que realizó hace 30 años Stephen Hawking sobre la tecnológica: cuáles se cumplieron
Con precisión inusual, el físico británico anticipó el impacto de la conectividad, el liderazgo privado en la exploración orbital y la necesidad urgente de regulación tecnológica
