El uso de la inteligencia artificial en elecciones: ¿un apocalipsis para la democracia o un cambio al que adaptarse?

En un año cargado de procesos electorales en todo el mundo, expertos discuten los efectos de contenidos falsos, cómo se pueden detectar y controlar, así cómo qué rol deben adoptar las plataformas tecnológicas

Guardar
El uso de la inteligencia
El uso de la inteligencia artificial está generando desafíos en varios ámbitos y el electoral es uno de los que más preocupa a los expertos (Imagen ilustrativa Infobae)

(Washington, Estados Unidos) Del otro lado del teléfono la voz del presidente de Estados Unidos, Joe Biden. “Votar este martes sólo les facilita a los republicanos su misión para elegir nuevamente a Donald Trump. Tu voto hace la diferencia en noviembre, no este martes”, decía un mensaje que recibieron miles de ciudadanos del estado de New Hampshire desestimulando el voto en las primarias del mes pasado.

El número desde el que les llegaba la llamada era el teléfono personal de Kathy Sullivan, ex presidenta del Partido Demócrata en el estado y que ahora integra el comité de campaña local a favor de Biden.

Pero la llamada era falsa. No solo porque la voz de Biden fue creada con inteligencia artificial, sino porque también se falsificó el origen de la llamada. “Esta es una interferencia electoral absoluta, y un claro intento para acosarme a mí y a otros votantes de New Hampshire que planean escribir en la boleta el nombre de Joe Biden”, dijo Sullivan.

En las primarias de New
En las primarias de New Hamsphire fue utilizada una voz creada con inteligencia artificial para imitar al presidente Biden en una campaña para desestimular el voto con información engañosa (EFE/EPA/Yuri Gripas)

No es la primera vez que la inteligencia artificial (IA) se utiliza para intentar interferir en una elección. En Eslovaquia, en setiembre del año pasado y en el marco de la campaña electoral para unos comicios parlamentarios cargados de propaganda pro rusa, se intentó interferir con un audio falso divulgado a 48 horas de la apertura de las urnas. Allí se escuchaba falsamente a dos candidatos de diferentes partidos discutiendo sobre cómo robar las elecciones.

Este 2024, un año cargado de elecciones en todo el mundo con cerca de 80 comicios en todo el mundo -entre ellos en territorios gigantes como India, Estados Unidos, Rusia y el Parlamento de la Unión Europea-, el temor de cómo se utilice la inteligencia artificial para intentar engañar a los votantes está en los primeros lugares de la agenda de las organizaciones que defienden la democracia.

En un evento organizado por el think thank Brooking Institution en Washington esta semana, expertos analizaron las diferentes implicaciones que puede aportar la IA a los contextos de campañas electorales.

El temor de algunos no es solo que los políticos puedan usar la IA para engañar, sino también que se escuden en ella para intentar encubrir así errores o declaraciones reales. “La mera existencia de contenido generado por IA ha permitido a las figuras políticas que actualmente se postulan para cargos públicos culpar a las falsificaciones profundas y negar la autenticidad de sus declaraciones y acciones anteriores”, dijo Amy Liu, asesor presidencial en Brookings Institution.

“El contenido generado por IA puede representar amenazas reales durante una temporada electoral. Y pueden fomentar la confusión sobre lo que es real o no, incluso arrojar dudas sobre información y contenido auténticos”, agregó Liu.

En Eslovaquia, Estados Unidos y
En Eslovaquia, Estados Unidos y ahora también en la campaña electoral de México, se han utilizado audios falsos creados con inteligencia artificial para incidir políticamente (REUTERS/Dado Ruvic/Illustration)

Entre el fin del mundo y un cambio similar a Photoshop

Los expertos hicieron énfasis en el evento que la información falsa ya existía antes que la IA. De hecho, según datos presentados por Valerie Wirtschafter, una experta en inteligencia artificial de Brookings Institution, de todos los contenidos impugnados por los usuarios de X (exTwitter) por falso, solo el 1% fueron generados por IA.

Olga Belogolova es directora de Tecnologías Emergentes y profesor en la Universidad Johns Hopkins y antes trabajó para Meta dirigiendo las políticas para contrarrestar las operaciones de influencia. En el evento contó como en esa empresa, propietaria de plataformas como Facebook, Instagram y Whatsapp, uno de sus desafíos fue contenter “la política de comportamiento coordinado y no auténtico”, conocidos como “granjas de trolls”. Es decir, “actores estatales o no estatales que participan en distintos tipos de manipulación”.

De esa experiencia entendió, tras haber estudiado las operaciones de influencia rusas durante años, “que a veces los actores de amenazas están más interesados en hacer creer en nada en absoluto, en lugar de creer en cualquier cosa”. Es decir, que lo que buscan más que influir con un contenido en particular es crear caos. “Y eso es algo que he visto en la configuración de la inteligencia militar rusa, así como en la Agencia de Investigación de Internet y otras granjas de trolls”.

En ese contexto, para Belogolova, no se debe entender a los desafíos que trae la IA como algo distinto a lo que ya había. “Algunos de los titulares que hemos visto en las últimas semanas uno de los términos que se utiliza cuando se habla de elecciones e inteligencia artificial ha sido el de ‘apocalipsis’, como que el mundo está a punto de terminarse debido a que la IA generativa se utilizará en las elecciones”, criticó la investigadora.

“¿Cuántos de nuestros problemas son fundamentalmente diferentes debido a la inteligencia artificial y a las nuevas técnicas y cuántos de ellos son cosas que nos han preocupado antes?”, agregó Belogolova, que recordó cómo en 1988 cuando se lanzó la primera versión de Photoshop surgió un debate similar sobre cuánto iba a influir en las campañas electorales.

“Creo que siempre es interesante mirar hacia atrás en la historia. La semana pasada tuve una conferencia con mis alumnos hablando sobre una especie de evolución del entorno de la información, incluidas cosas como la imprenta y la radio, y momentos en los que algunos seres humanos estaban asustados por las nuevas tecnologías y cómo reaccionaban ante ellas”, señaló.

Meta anunció esta semana que
Meta anunció esta semana que empezará a etiquetar el contenido generado con IA. (AP Foto/Thibault Camus, archivo)

El rol de las plataformas: ventajas y riesgos de etiquetar contenido con IA

Meta anunció esta semana que empezará a etiquetar en sus plataformas Facebook, Instagram y Threads todas las imagenes que sean generadas por inteligencia artificial. “A medida que la diferencia entre contenido humano y sintético se vuelve borrosa, la gente quiere saber dónde está el límite. A menudo, las personas se topan con contenido generado por IA por primera vez y nuestros usuarios nos han dicho que aprecian la transparencia en torno a esta nueva tecnología”, informó la compañía en un comunicado.

Arvind Narayanan, director del Centro de Políticas de Tecnología en la Universidad de Princeton, se mostró entusiasmado con esa decisión. “Me alegré de ver este anuncio de Meta. He abogado por este tipo de etiquetado, dijo. “Soy optimista en que esto le dará a la gente una buena idea del rápido avance de las capacidades de la IA en general, que creo que actualmente no tienen”.

Belogolova de todas formas puso un matiz y se preguntó sobre los efectos secundarios del etiquetado, en particular que se genere con esto la sensación en las audiencias de que todo lo que no tenga esa etiqueta sea real cuando no necesariamente será así. Por eso, para la experta, es importante que se realicen investigaciones involucrando a la audiencia.

“¿Cómo consume la gente esas etiquetas? ¿Causará algún tipo de reacción cuando la gente lo vea?”, sugiere preguntar. “Hay un modelo que detecta estas imágenes que podrían ser artificiales pero no detecta algunos otros. ¿Eso significa que puedes confiar en todos?”, se preguntó.

Otra de las contraindicaciones del etiquetado es que está abordando el problema de la desinformación solo desde el ángulo del contenido y no necesariamente el engaño se da solo con lo que se publica sino en cómo se hace. “Están compartiendo algo real, compartiendo una noticia de un medio de comunicación legítimo, pero usándola para engañar y, por lo tanto, confiar únicamente en el contenido puede ser algo problemático”, dijo Belogolova.

En ese sentido, Laura Edelson, profesora de la Northeastern University, dijo que hay algunos mecanismos para detectar los mecanismos engañosos observando no solo el contenido. “Muchos de los modelos que se utilizan para generar contenido de IA se pueden usar también para detectar el mismo contenido”, dijo. En ese sentido aseguró que existe un mecanismo llamado “detección de postura”, con el que “se pueden usar modelos de lenguaje grandes para agrupar muchas afirmaciones similares, particularmente de teorías de conspiración”.

“Creo que es un enfoque muy prometedor. Existen otros enfoques igualmente prometedores para que todas las plataformas identifiquen videos o audio generados por IA mucho antes que con métodos manuales”, agregó Edelson.

La experta de todas formas dejó planteada una pregunta: “¿Podremos construir esos sistemas lo suficientemente rápido para enfrentar la amenaza?”

Otro elemento en el que las plataformas pueden jugar un rol es en el de la moderación, dijo Narayanan. “Ayudar a las personas a comprender la credibilidad de diferentes organizaciones. En Twitter la eliminación tick azul fue obviamente es un gran paso atrás, pero ¿cuáles son algunos pasos hacia adelante que pueden implementar plataformas más responsables? Creo que eso sigue siendo una pregunta que vale la pena explorar. No tenemos respuestas claras”.

Últimas Noticias

Donald Trump confirmó que habló con el dictador Nicolás Maduro pero evitó dar detalles de la conversación

El presidente de Estados Unidos descartó calificar el diálogo como positivo o negativo y no precisó qué asuntos se abordaron ni los alcances del intercambio

Donald Trump confirmó que habló

Zachery Ty Bryan, el exactor de “Mejorando la casa”, fue arrestado por sexta vez en cinco años

El exprotagonista de la exitosa serie de los 90’s enfrenta otra detención, esta vez en Oregon tras incumplir condiciones legales impuestas por condenas previas

Zachery Ty Bryan, el exactor

EEUU advirtió que intensificará la lucha contra los narcoterroristas vinculados al régimen de Venezuela: “Te perseguiremos”

La fiscal general Pam Bondi afirmó que la administración Trump utilizará todos los recursos legales para frenar el flujo de drogas y señaló a organizaciones como el Tren de Aragua y a los cárteles respaldados por la dictadura chavista

EEUU advirtió que intensificará la

Punaluʻu, la playa de arena negra más emblemática de Hawái: geología, acceso y experiencia

Una costa volcánica en permanente transformación, donde la lava convertida en vidrio oscuro se une al océano y a la vida marina, ofrece una de las postales más singulares de la Isla Grande para entender su origen y su presente

Punaluʻu, la playa de arena

Un estudio desmonta el mito del alto costo energético de la inteligencia artificial

Una investigación citada por Muy Interesante indica que la adopción masiva de IA en Estados Unidos tendría un impacto mínimo en el consumo de energía y en las emisiones de CO₂, muy por debajo de las estimaciones alarmistas habituales

Un estudio desmonta el mito