
Las principales empresas de inteligencia artificial tienen previsto firmar un “acuerdo” por el que se comprometen a desarrollar tecnología para identificar, etiquetar y controlar imágenes, vídeos y grabaciones de audio generados por inteligencia artificial con el objetivo de engañar a los votantes antes de las cruciales elecciones que se celebrarán este año en varios países.
Sin embargo, el acuerdo, desarrollado por Google, Microsoft y Meta, así como OpenAI, Adobe y TikTok, no prohíbe los contenidos políticos engañosos generados por IA, según una copia obtenida por The Washington Post. X, antes Twitter, no ha firmado el acuerdo.
En cambio, el documento equivale a un manifiesto en el que se afirma que los contenidos generados por IA, muchos de los cuales son creados por las herramientas de las empresas y publicados en sus plataformas, presentan riesgos para unas elecciones justas, y se esbozan medidas para tratar de mitigar ese riesgo, como el etiquetado de contenidos sospechosos de IA y la educación del público sobre los peligros de la IA.

“La generación y distribución intencionadas y no divulgadas de contenidos electorales engañosos basados en IA pueden inducir al público a error” reza el acuerdo.
Otras empresas podrían adherirse al acuerdo. “En un año crítico para las elecciones mundiales, las empresas tecnológicas están trabajando en un acuerdo para combatir el uso engañoso de la IA dirigida a los votantes. Adobe, Google, Meta, Microsoft, OpenAI, TikTok y otros están trabajando conjuntamente para avanzar en este objetivo compartido y esperamos finalizar y presentar los detalles el viernes en la Conferencia de Seguridad de Múnich”, dijo David Cuddy, portavoz de Microsoft, en un comunicado enviado por correo electrónico.
Las imágenes generadas por inteligencia artificial, o “deepfakes”, existen desde hace varios años. Pero en el último año han mejorado rápidamente su calidad, hasta el punto de que algunos vídeos, imágenes y grabaciones de audio falsos son difíciles de distinguir de los reales. Además, las herramientas para crearlos están ahora ampliamente disponibles, lo que facilita mucho su producción.

Los contenidos generados por inteligencia artificial ya han aparecido en campañas electorales de todo el mundo. El año pasado, un anuncio en apoyo del ex candidato presidencial republicano Ron DeSantis utilizó IA para imitar la voz del ex presidente Donald Trump. En Pakistán, el candidato presidencial Imran Khan utilizó IA para pronunciar discursos desde la cárcel. En enero, una robollamada que se hacía pasar por el presidente Biden animaba a la gente a no votar en las primarias de New Hampshire. Las llamadas utilizaban una versión generada por IA de la voz de Biden.
Las empresas tecnológicas han recibido presiones de reguladores, investigadores de IA y activistas políticos para frenar la difusión de contenidos electorales falsos. El nuevo acuerdo es similar a un compromiso voluntario que las mismas empresas, además de varias otras, firmaron en julio tras una reunión en la Casa Blanca, en la que se comprometieron a tratar de identificar y etiquetar los contenidos de IA falsos en sus sitios web. En el nuevo acuerdo, las empresas también se comprometen a educar a los usuarios sobre el contenido engañoso de IA y a ser transparentes sobre sus esfuerzos para identificar deepfakes.
Las empresas tecnológicas también tienen ya sus propias políticas sobre contenidos políticos generados por IA. TikTok no permite los contenidos falsos de personajes públicos cuando se utilizan con fines políticos o comerciales. Meta, la empresa matriz de Facebook e Instagram, exige a los anunciantes políticos que revelen si utilizan IA en los anuncios de sus plataformas. YouTube exige a los creadores que etiqueten los contenidos generados por IA que parezcan realistas cuando los publiquen en el sitio de vídeos propiedad de Google.

Sin embargo, los intentos de construir un sistema amplio en el que el contenido de IA se identifique y etiquete en todas las redes sociales aún no han fructificado. Google ha mostrado su tecnología de “marca de agua”, pero no exige a sus clientes que la utilicen. Adobe, propietaria de Photoshop, se ha posicionado como líder en el control del contenido de IA, pero su propio sitio web de fotos de archivo estaba recientemente lleno de imágenes falsas de la guerra de Gaza.
(c) 2024 , The Washington Post
Últimas Noticias
El inmigrante afgano implicado en el ataque armado contra la Guardia Nacional en Washington fue acusado de asesinato
La fiscal estadounidense Jeanine Pirro dijo que el sospechoso, Rahmanullah Lakanwal, enfrentará cargos adicionales a medida que continúa la investigación
Un pasado militar y una adaptación fallida en EEUU: lo que se sabe de Rahmanullah Lakanwal y el ataque armado en Washington
El ex integrante de una unidad respaldada por la CIA emigró a Estados Unidos tras la retirada de Kabul y tuvo dificultades para encontrar estabilidad laboral y social antes de ser señalado por el ataque

Mientras el papa León XIV visita Líbano, los cristianos huyen de Medio Oriente
Los cristianos siguen siendo la minoría religiosa más numerosa de la región donde Jesús nació, vivió y murió, pero la comunidad se está reduciendo
La policía de Washington D.C. comenzará a patrullar con la Guardia Nacional después del ataque fatal
Si se implementa a largo plazo, el cambio modificaría significativamente la forma en que las tropas de la Guardia Nacional han trabajado con las fuerzas del orden en el Distrito desde su llegada

Quién era Sarah Beckstrom, la guardia del Ejército de EEUU que murió tras ser atacada junto a su compañero Andrew Wolfe
El hombre de 24 años pelea por su vida, mientras que la joven de 20 falleció en la madrugada. El autor del crimen fue un ciudadano afgano que resultó herido y quedó detenido. Donald Trump anunció que impulsará nuevas restricciones a la inmigración


