De celebridades a directivos: los 7 casos reales que muestran el riesgo de los deepfakes

Los cibercriminales han aprovechado la IA para perfeccionar sus estafas, logrando que sus engaños resulten cada vez más realistas y difíciles de identificar

Guardar
La imagen de Lionel Messi
La imagen de Lionel Messi fue utilizada para promover una falsa aplicación de inversiones llamada “Wildcat Dive”. (Unsplash)

La utilización de deepfakes en el ámbito del cibercrimen ha registrado un crecimiento en los últimos años, con casos que han involucrado la clonación de voces e imágenes de celebridades y altos ejecutivos para perpetrar estafas o difundir desinformación.

ESET Latinoamérica ha identificado al menos siete situaciones recientes en las que los ciberdelincuentes lograron engañar a individuos y empresas mediante la creación de videos y audios falsificados con inteligencia artificial, generando pérdidas millonarias o severas consecuencias reputacionales para los afectados.

Las estafas deepfake más impactantes

Según ESET, los casos detectados reflejan el nivel de sofisticación que los criminales han alcanzado al emplear estas tecnologías. En uno de los ejemplos más notorios, la imagen de Lionel Messi fue utilizada para promover una falsa aplicación de inversiones llamada “Wildcat Dive”.

La utilización de deepfakes en
La utilización de deepfakes en el ámbito del cibercrimen ha registrado un crecimiento en los últimos años. (Imagen Ilustrativa Infobae)

El video, divulgado en Instagram a partir de fragmentos manipulados de una entrevista real, buscaba engañar a los usuarios con promesas de ganancias fáciles, capitalizando la alta popularidad del futbolista argentino.

En el plano corporativo, Arup, la reconocida firma de arquitectura responsable de obras como la Ópera de Sídney, sufrió un daño económico sustancial cuando un empleado, creyendo hablar con su director financiero, fue víctima de un deepfake y realizó 15 transferencias por más de 25 millones de dólares.

Algo similar intentaron hacer los cibercriminales en Ferrari simulando la voz de su CEO, Benedetto Vigna, para inducir a transferencias millonarias. Aunque en este caso no lograron engañar al personal, el episodio sirvió para redoblar la capacitación en la compañía.

Un deepfake es una técnica
Un deepfake es una técnica basada en inteligencia artificial que genera videos o audios falsos que imitan a una persona real. (Imagen Ilustrativa Infobae)

Un esquema comparable afectó a WPP, una de las mayores empresas de publicidad del mundo: criminales organizaron una reunión virtual suplantando al CFO mediante un audio deepfake y material de YouTube, con el objetivo de acceder a dinero y datos confidenciales. Este ataque no tuvo éxito gracias al estado de vigilancia y la capacitación de los colaboradores.

El peligro de los deepfakes no se limita al entorno empresarial. En Baltimore, una escuela enfrentó una crisis cuando se viralizó un audio manipulado que supuestamente mostraba a su director haciendo comentarios racistas y antisemitas. La acción desencadenó amenazas de muerte contra el docente antes de que la policía confirmara que se trataba de un montaje generado por inteligencia artificial.

La figura de Elon Musk tampoco ha estado al margen: los ciberdelincuentes aprovecharon su imagen en anuncios de X y YouTube para promover falsas inversiones en Bitcoin, lo que le costó a más de 7.000 personas aproximadamente 80 millones de dólares, de acuerdo con la Federal Trade Commission de Estados Unidos.

En el ámbito político, un video deepfake del presidente ucraniano Volodímir Zelensky circuló en 2022, instando falsamente a las tropas a rendirse durante el conflicto con Rusia. El mandatario tuvo que salir rápidamente a desmentir la grabación con un mensaje legítimo en sus redes oficiales.

Los delincuentes piden dinero para
Los delincuentes piden dinero para no publicar el contenido falso. (Freepik)

Cómo protegerse de fraudes y engaños con deepfakes

La creciente calidad de los deepfakes representa un desafío especial para usuarios y empresas. “Con la evolución de la Inteligencia Artificial, estos vídeos y audios parecen cada vez más reales”, señaló Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.

Ante este panorama, la compañía recomienda desconfiar de cualquier anuncio que ofrezca resultados demasiado buenos para ser verdad, especialmente si involucra figuras públicas.

También sugiere examinar con atención la calidad visual y sonora de los contenidos, utilizar herramientas de seguridad que bloqueen sitios y correos maliciosos, y para las organizaciones, no autorizar operaciones financieras únicamente por llamados o videollamadas, implementando claves de validación adicionales.

La capacitación continúa resultando fundamental para identificar señales de alarma, y el aprovechamiento de tecnologías especializadas en detección de deepfakes se posiciona como una línea de defensa ante una amenaza en crecimiento.