La IA ya puede manipular encuestas de opinión pública: así es cómo burla los sistemas de seguridad

Un nuevo estudio demuestra que los bots avanzados pueden infiltrarse en encuestas masivas y modificar resultados sin dejar rastro

Guardar
Sistemas automatizados con IA pueden
Sistemas automatizados con IA pueden alterar una encuesta de opinión pública. – (Imagen Ilustrativa Infobae)

La infraestructura global de encuestas enfrenta un riesgo que hasta hace poco parecía improbable. Un estudio reciente del Dartmouth College advierte que sistemas de inteligencia artificial ya son capaces de infiltrarse en sondeos masivos, alterar sus resultados y pasar desapercibidos incluso frente a los filtros más estrictos utilizados por las empresas del sector.

La investigación demuestra que basta un puñado de respuestas automatizadas —generadas a un costo mínimo— para modificar proyecciones estadísticas en procesos electorales y estudios científicos.

El hallazgo expone un punto débil que podría afectar a consultoras, instituciones públicas, universidades y medios de comunicación. En pruebas realizadas con encuestas nacionales de Estados Unidos previas a los comicios de 2024, solo entre 10 y 52 respuestas creadas por IA fueron suficientes para invertir tendencias y generar escenarios políticos opuestos a los observados entre participantes reales.

Estudio demostró que la IA
Estudio demostró que la IA puede manipular los resultados de una encuesta. (Imagen Ilustrativa Infobae)

Lo más preocupante es que estos bots no solo lograron ocultar su origen, sino que además se adaptaron a diferentes perfiles demográficos con una precisión comparable a la humana.

Bots que simulan ser personas reales

El equipo de investigación, dirigido por el profesor Sean Westwood, desarrolló un modelo capaz de responder cuestionarios en línea y sortear controles diseñados para identificar comportamientos inusuales. Esta herramienta, descrita como un “encuestado sintético”, fue creada a partir de un texto base de apenas 500 palabras. Aun así, logró superar casi el 100% de los filtros aplicados, incluidos test de atención, ejercicios lógicos y medidas destinadas a detectar automatismos.

En más de 43.000 experimentos, el sistema mantuvo un patrón de respuesta estable y convincente. Ajustó su lenguaje según el nivel educativo asignado, empleó expresiones más complejas cuando se le atribuía formación superior y simplificó su estilo en situaciones contrarias. En la práctica, su desempeño imitó de manera tan precisa a un participante real que los investigadores no encontraron diferencias significativas entre ambos grupos.

La IA puede burlar los
La IA puede burlar los sistemas de seguridad de las páginas que hacen encuestas para manipular los resultados. (Imagen Ilustrativa Infobae)

Impacto directo en mediciones políticas y científicas

Una de las capacidades más críticas del sistema fue su habilidad para sesgar los resultados cuando se le indicó favorecer a un partido político específico. En simulaciones relacionadas con la aprobación presidencial y preferencias electorales, alteró los porcentajes hasta rangos extremos que iban desde valores casi nulos hasta apoyos cercanos al 100%. Este comportamiento, reproducido en diferentes escenarios, confirmó su potencial para distorsionar mediciones que guían decisiones estratégicas y análisis de coyuntura.

El riesgo no se limita a los procesos electorales. Buena parte de la investigación académica en psicología, sociología, economía, salud pública y marketing depende de cuestionarios digitales para obtener datos representativos.

Si estos registros se ven afectados por automatismos, las conclusiones podrían resultar equivocadas o poco confiables. Para Westwood, esto abre la puerta a un problema mayor: la posibilidad de que modelos de IA contaminen bases de datos enteras y condicionen el conocimiento científico.

Expertos en ciberseguridad recomiendan buscar
Expertos en ciberseguridad recomiendan buscar nuevos sistemas de seguridad para encuestas. (Imagen Ilustrativa Infobae)

Costos bajos y posibilidades ilimitadas

Los investigadores también analizaron la viabilidad económica del método. Mientras que un encuestado humano suele recibir cerca de 1,50 dólares por su participación, un bot puede generar respuestas de forma gratuita o con costos mínimos que rondan los cinco céntimos. En plataformas digitales donde se procesan miles de cuestionarios por día, esto puede convertirse en un incentivo para utilizar sistemas automatizados con fines de manipulación o para reducir costos operativos.

Para agravar el escenario, los bots funcionaron igual de bien incluso cuando se configuraron en otros idiomas, como ruso, mandarín o coreano. Aun así, produjeron respuestas fluidas en inglés y español, lo que implica que actores extranjeros también podrían aprovechar esta brecha para intervenir encuestas en distintos países.

Urgencia por nuevas medidas de verificación

El estudio sometió la herramienta a todos los métodos de detección actualmente utilizados por empresas encuestadoras y plataformas de investigación. Ninguno fue capaz de identificar su origen automatizado. Ante esta evidencia, Westwood propone la adopción de sistemas que verifiquen la identidad real de los participantes, ya sea mediante validaciones biométricas, autenticación continua o mecanismos capaces de certificar la presencia humana.

No solo basta con tener
No solo basta con tener un captcha para evitar los bots de IA. (Imagen Ilustrativa Infobae)

El investigador sostiene que la tecnología necesaria para implementar estos controles ya existe, pero que falta decisión por parte de las empresas y plataformas que administran los sondeos. De no aplicarse pronto, el ecosistema de encuestas podría perder una de sus funciones esenciales: ofrecer un retrato confiable de la opinión pública.