En un importante año electoral, los arquitectos de la IA actúan contra su uso indebido

The New York Times: Edición Español

Guardar

SAN FRANCISCO -- Las empresas de inteligencia artificial han estado a la vanguardia del desarrollo de tecnología transformadora. Ahora también se están apresurando para establecer límites al uso de la IA en un año repleto de elecciones importantes en todo el mundo.‌El mes pasado, OpenAI, la compañía creadora del chatbot ChatGPT, dijo que estaba trabajando para evitar el abuso de sus herramientas en las elecciones, en parte prohibiendo su uso para crear chatbots que finjan ser personas o instituciones reales. En las últimas semanas, Google también informó que iba a limitar a su chatbot de inteligencia artificial, Bard, para que no responda a ciertas instrucciones (prompts) relacionadas con las elecciones "para extremar las precauciones". Y Meta, propietaria de Facebook e Instagram, prometió etiquetar mejor el contenido generado por IA en sus plataformas para que los votantes puedan discernir más fácilmente qué material es real y cuál es falso.‌El viernes, 20 empresas de tecnología --incluidas Adobe, Amazon, Anthropic, Google, Meta, Microsoft, OpenAI, TikTok y X (anteriormente conocida como Twitter)-- firmaron un compromiso voluntario para ayudar a prevenir que contenido engañoso creado con IA altere las votaciones en 2024. El acuerdo, anunciado en la Conferencia de Seguridad de Múnich, incluyó los compromisos de las empresas de colaborar en herramientas de detección de IA y otras acciones, pero no exigió la prohibición de contenido de IA relacionado con las elecciones.‌Anthropic también dijo por separado el viernes que va a prohibir que su tecnología se aplique a campañas políticas o actividades de cabildeo. En una publicación de blog, la compañía, que fabrica un chatbot llamado Claude, dijo que va a hacer una advertencia o suspender a cualquier usuario que viole sus reglas. Añadió que está utilizando herramientas entrenadas para detectar y bloquear automáticamente la desinformación y las operaciones de influencia.‌"La historia del despliegue de la IA también ha estado llena de sorpresas y efectos inesperados", declaró la empresa. "Creemos que en 2024 se descubrirán usos sorprendentes de los sistemas de inteligencia artificial, usos no previstos por sus propios desarrolladores".‌Estos esfuerzos forman parte de una iniciativa de las empresas de inteligencia artificial para controlar una tecnología que ellas popularizaron en un momento en el que miles de millones de personas acudirán a las urnas. Este año se prevén al menos 83 elecciones en todo el mundo, la mayor concentración de procesos electorales que se verá en por lo menos los próximos 24 años, según la consultoría Anchor Change. En las últimas semanas, la gente de Taiwán, Pakistán e Indonesia ha votado, y está programado que la India, la democracia más grande del mundo, celebre sus elecciones generales en la primavera.‌No se sabe con certeza cuán efectivas serán las restricciones a las herramientas de inteligencia artificial, especialmente porque las empresas tecnológicas siguen avanzando con tecnología cada vez más sofisticada. El jueves, OpenAI presentó Sora, una tecnología que puede generar videos realistas de forma instantánea. Estas herramientas podrían utilizarse para producir texto, sonidos e imágenes en campañas políticas, lo que difuminaría la línea entre la realidad y la ficción y plantearía dudas sobre si los votantes podrán distinguir qué contenido es real.‌En las campañas políticas estadounidenses ya ha aparecido contenido generado por IA, lo que ha provocado reacciones regulatorias y legales. Algunos legisladores estatales están redactando proyectos de ley para regular el contenido político generado por IA.‌El mes pasado, los residentes de Nuevo Hampshire recibieron llamadas automatizadas que buscaban disuadirlos de votar en las primarias estatales. La voz de esos mensajes probablemente fue generada artificialmente para sonar como la del presidente Joe Biden. La Comisión Federal de Comunicaciones (FCC, por su sigla en inglés) prohibió la semana pasada este tipo de llamadas.‌‌"Actores maliciosos están utilizando voces generadas por IA en llamadas automatizadas no solicitadas para extorsionar a familiares vulnerables, imitar a celebridades y desinformar a los votantes", dijo en ese momento Jessica Rosenworcel, presidenta de la FCC.

Las herramientas de inteligencia artificial también han creado representaciones engañosas de políticos y temas políticos en Argentina, Australia, el Reino Unido y Canadá. La semana pasada, el ex primer ministro Imran Khan, cuyo partido obtuvo la mayor cantidad de escaños en las elecciones de Pakistán, utilizó una voz de IA para declarar la victoria mientras estaba en prisión.‌En uno de los ciclos electorales más trascendentales en mucho tiempo, la desinformación y los engaños creados por la IA podrían ser devastadores para la democracia, han dicho los expertos.‌"Estamos en un momento complicado", dijo Oren Etzioni, profesor de la Universidad de Washington que se especializa en inteligencia artificial y uno de los fundadores de True Media, una organización sin fines de lucro que trabaja para identificar la desinformación en línea en las campañas políticas. "Necesitamos herramientas para responder a esto en tiempo real".‌Anthropic informó en su anuncio del viernes que planea realizar pruebas para identificar cómo su chatbot Claude podría producir contenido sesgado o engañoso relacionado con candidatos políticos, temas políticos y gestión electoral. Estas pruebas de "equipo rojo", que a menudo se utilizan para burlar las protecciones de una tecnología e identificar mejor sus vulnerabilidades, también explorarán cómo responde la IA a indicaciones dañinas, como las que solicitan tácticas de supresión de votantes.‌En las próximas semanas, Anthropic también desarrollará una prueba que tendrá como objetivo redirigir a los usuarios estadounidenses que tengan consultas relacionadas con las elecciones a fuentes autorizadas de información, como TurboVote de Democracy Works, una organización no partidista sin fines de lucro. La compañía dijo que su modelo de inteligencia artificial no ha sido entrenado con la frecuencia suficiente para proporcionar datos confiables en tiempo real sobre elecciones específicas.‌De manera similar, OpenAI afirmó el mes pasado que planeaba guiar a las personas a la información sobre las votaciones a través de ChatGPT, así como etiquetar las imágenes generadas por IA.

Synthesia, una empresa emergente con un generador de videos con inteligencia artificial que ha sido vinculado a campañas de desinformación, también prohíbe el uso de tecnología para crear "contenido similar a noticias", incluyendo material falso, polarizador, divisivo o engañoso. La compañía ha mejorado los sistemas que utiliza para detectar el uso indebido de su tecnología, señaló Alexandru Voica, jefe de políticas y asuntos corporativos de Synthesia.‌Stability AI, una empresa emergente con una herramienta generadora de imágenes, dijo que prohíbe el uso de su tecnología con fines ilegales o poco éticos, intenta bloquear la generación de imágenes perjudiciales y aplica una marca de agua imperceptible a todas las imágenes.‌Las empresas tecnológicas más grandes también han intervenido más allá del compromiso conjunto del viernes en Múnich.‌La semana pasada, Meta también indicó que está colaborando con otras empresas para establecer estándares tecnológicos que ayuden a reconocer el contenido generado con IA. Antes de las elecciones parlamentarias de la Unión Europea en junio, TikTok dijo en una publicación de blog el miércoles que va a prohibir el contenido manipulado potencialmente engañoso y a exigir a los usuarios que etiqueten las creaciones realistas hechas con IA.‌Google dijo en diciembre que también le va a exigir a los creadores de videos en YouTube y a todos los anunciantes electorales que revelen o informen sobre el contenido generado o alterado digitalmente. La compañía declaró que se está preparando para las elecciones de 2024 restringiendo a sus herramientas de inteligencia artificial, como Bard, para que no respondan a ciertas consultas relacionadas con las elecciones.‌"Como cualquier tecnología emergente, la IA presenta nuevas oportunidades y desafíos", dijo Google. La IA puede ayudar a combatir el abuso, añadió la empresa, "pero también nos estamos preparando para saber cómo puede cambiar el panorama de la desinformación".