
A pocos días de las elecciones presidenciales en Estados Unidos, funcionarios gubernamentales han emitido una advertencia clara: los votantes no deben depender de los chatbots de inteligencia artificial (IA) para obtener información relacionada con el proceso electoral. La advertencia se dio el viernes a través de un comunicado de la fiscal general de Nueva York, Letitia James, quien señaló que herramientas como los chatbots frecuentemente proporcionan información incorrecta en respuesta a preguntas sobre votación. La oficina de James alertó que los votantes que dependan de estas herramientas corren el riesgo de perder su oportunidad de votar o de recibir datos inexactos, según informó CNBC.
El aviso de la fiscalía general de Nueva York llega en un contexto de gran preocupación por el aumento de desinformación impulsada por contenidos generados por inteligencia automatizada, en especial durante este año electoral. Según un informe de Clarity, una firma especializada en aprendizaje automático, la cantidad de contenido manipulado mediante “deepfakes” ha aumentado un 900% en el último año, con algunos de estos videos relacionados con intentos de desestabilización orquestados desde Rusia, reportaron autoridades de inteligencia de Estados Unidos. La tecnología computacional ha facilitado la creación de imágenes, videos y texto convincentes que, si no se verifican adecuadamente, pueden confundirse con información legítima y alterar la percepción pública en el contexto electoral, apuntaron los expertos.
Alexandra Reeve Givens, directora ejecutiva del Centro para la Democracia y la Tecnología (CDT, por sus siglas en inglés), enfatizó que los votantes no deberían recurrir a chatbots de inteligencia artificial para obtener información sobre la votación o las elecciones, debido a que existen preocupaciones sobre la precisión y el contenido de las respuestas. En un estudio realizado en julio por el CDT, el centro concluyó que, de 77 preguntas relacionadas con elecciones planteadas a varios chatbots, más de un tercio de las respuestas contenían errores o información falsa. Dicho estudio incluyó pruebas a chatbots de empresas tecnológicas como Google, OpenAI, Anthropic y Meta, quienes proporcionaron respuestas inconsistentes o incorrectas sobre temas como ubicaciones de votación y accesibilidad en los centros electorales.

Ante esta situación, varias empresas responsables de desarrollar chatbots de inteligencia automatizada han publicado medidas para evitar que sus herramientas se conviertan en fuentes de desinformación electoral. Un portavoz de Anthropic, compañía creadora del chatbot Claude, aseguró que la empresa anima a los usuarios a consultar fuentes oficiales de información electoral, dado que su modelo computacional no se entrena con suficiente frecuencia para reflejar actualizaciones en tiempo real de elecciones específicas. Por su parte, OpenAI, creador de ChatGPT, anunció que, a partir del 5 de noviembre, su chatbot incluirá un aviso dirigido a los usuarios para que consulten fuentes verificadas como The Associated Press o sus juntas electorales locales para obtener información actualizada y precisa sobre resultados electorales.
Las preocupaciones sobre el uso de tecnología automatizada en contextos electorales no se limitan a Estados Unidos. En 2024, más de 40 países celebran elecciones de relevancia, afectando a un estimado de 4,000 millones de personas en todo el mundo, reportó CNBC. La expansión de las capacidades generativas ha permitido la rápida creación de textos, imágenes y videos personalizados, lo que plantea riesgos para la integridad de los procesos democráticos, especialmente en sociedades con acceso limitado a fuentes de información verificadas. En este contexto, varios gobiernos han tomado medidas preventivas ante el posible impacto de las tecnologías automatizadas en sus procesos electorales.
La intervención de la fiscalía de Nueva York coincide con una serie de medidas legislativas en Estados Unidos dirigidas a controlar la diseminación de desinformación mediante herramientas computacionales. Según Voting Rights Lab, organización dedicada al monitoreo de cambios en políticas electorales, 43 legislaturas estatales han propuesto hasta el momento 129 proyectos de ley que contienen provisiones para regular el uso de inteligencia sintética en la producción de información electoral falsa. Estas iniciativas buscan establecer salvaguardas para que la información errónea generada por tecnología avanzada no se convierta en un obstáculo para los votantes, quienes, de no contar con información precisa, podrían perder la oportunidad de participar en los comicios, detalló Voting Rights Lab.

OpenAI, en un informe de 54 páginas publicado el mes pasado, reveló que ha interrumpido más de 20 operaciones y redes engañosas en todo el mundo que intentaban utilizar sus modelos automatizados para crear desinformación. Estas actividades incluyeron desde artículos en sitios web generados por tecnología computacional hasta publicaciones en redes sociales hechas por cuentas falsas, según detalló la empresa. No obstante, OpenAI aclaró que ninguna de estas operaciones relacionadas con las elecciones obtuvo un nivel de compromiso “viral” significativo, lo que sugiere que la propagación de contenido electoral engañoso creado mediante sus modelos no alcanzó una audiencia masiva, como detalla el informe de la compañía.
Por su parte, Google y Meta, que también desarrollan y operan plataformas de inteligencia automatizada, se han comprometido a mejorar las políticas de transparencia en torno al uso de capacidades avanzadas en campañas políticas, según los reportes de CNBC. Estas empresas han implementado diversas actualizaciones en sus políticas de uso para reducir el riesgo de que sus plataformas sean utilizadas para propagar desinformación, incluyendo restricciones sobre la creación y distribución de contenido político generado por tecnología sintética sin un etiquetado adecuado.
De cara a la elección presidencial, la Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) también está evaluando políticas adicionales que aborden los desafíos de la desinformación generada por inteligencia automatizada. Estas medidas son vistas como un esfuerzo preventivo en medio de un creciente escepticismo hacia las herramientas computacionales en contextos electorales, como lo demuestra el estudio del CDT. Las autoridades esperan que el acceso a información oficial y verificada disminuya los riesgos de desinformación en las próximas elecciones.
Últimas Noticias
Estados Unidos suspendió las solicitudes de inmigración de 19 países considerados de alto riesgo
El gobierno estadounidense detuvo el procesamiento de trámites migratorios de ciudadanos de las naciones afectadas, luego del ataque en Washington DC en el que un afgano asesinó a una oficial de la guardia nacional

Estos son los trámites migratorios que quedan pausados en EEUU para personas de 19 países
La autoridad federal informó que múltiples gestiones vinculadas a extranjeros de naciones clasificadas como de alto riesgo permanecerán detenidas mientras se completan nuevas evaluaciones internas

El Pentágono aseguró que las operaciones antidrogas de Estados Unidos apenas comienzan y se intensificarán
El secretario de Defensa de Estados Unidos, Pete Hegseth, dijo que la administración de Donald Trump se puso “manos a la obra” combatir a los narcoterroristas en el Caribe
Mega Millions: números ganadores del 2 de diciembre de 2025
Esta lotería estadounidense realiza dos sorteos a la semana, los martes y viernes, en los que hay la posibilidad de ganar varios millones de dólares

Un hombre fue mordido en la cara y las manos por un mapache con rabia al intentar ayudarlo en Georgia
El residente del condado de Cherokee fue atacado por el animal infectado mientras intentaba rescatarlo, lo que obligó a iniciar un protocolo médico inmediato para evitar consecuencias fatales tras la exposición al virus


