Deepfakes y estafas con IA: expertos en ciberseguridad revelan qué hacer para no caer en la trampa

La educación digital y la verificación de fuentes se consolidan como las herramientas más efectivas para evitar caer en estafas impulsadas por IA

Guardar
Sigue estas recomendaciones para detectar
Sigue estas recomendaciones para detectar un deepfake. (Unsplash)

La inteligencia artificial (IA) avanza más rápido de lo que muchos imaginaban, y con ello también las técnicas utilizadas por los delincuentes digitales. Hoy, cualquier persona con acceso a herramientas de IA puede crear imágenes, audios o videos falsos casi imposibles de distinguir de la realidad. Este fenómeno, conocido como deepfake, se ha convertido en uno de los mayores riesgos de la era digital y en un terreno fértil para las estafas en línea.

Cada vez resulta más difícil determinar si una voz, una videollamada o incluso una noticia proviene de una fuente real. Los ciberdelincuentes están aprovechando estas tecnologías para suplantar identidades, manipular información y generar fraudes cada vez más sofisticados. Ante este panorama, los expertos en ciberseguridad advierten que no basta con herramientas tecnológicas: la clave, dicen, está en aprender a frenar y analizar antes de actuar.

Un informe reciente de la Universidad de Carolina del Norte detalla que la facilidad para crear contenido falso con IA está generando un nuevo tipo de amenaza global. Lo que antes requería horas de trabajo y conocimientos avanzados, hoy se puede hacer en minutos desde un celular. Y las consecuencias ya se están viendo, desde estafas financieras hasta campañas de desinformación masiva.

Con el avance de la
Con el avance de la IA, las deepfakes se hacen más difíciles de detectar. REUTERS/Dado Ruvic/Ilustración

Deepfakes: la nueva cara del fraude digital

Durante años, los intentos de fraude por internet se limitaban a correos electrónicos mal redactados o mensajes con errores evidentes. Sin embargo, con la llegada de la inteligencia artificial generativa, los estafadores han perfeccionado sus métodos. Hoy pueden imitar la voz de un jefe, crear un video falso de un familiar o incluso replicar una conversación completa con gran realismo.

Uno de los casos más comunes es el llamado fraude del CEO, en el que los delincuentes se hacen pasar por un superior o compañero de trabajo para solicitar transferencias de dinero o información sensible. Gracias a los avances en clonación de voz e imagen, el engaño puede resultar casi imposible de detectar a simple vista.

Además, los deepfakes no se limitan al ámbito empresarial. Figuras públicas, celebridades y usuarios comunes han sido víctimas de videos falsos que circulan en redes sociales, afectando su reputación o siendo usados como parte de campañas fraudulentas. La amenaza, explican los expertos, ya no depende solo de la tecnología, sino de la capacidad humana para discernir entre lo real y lo generado por IA.

Detectar una deepfakes puede ser
Detectar una deepfakes puede ser posible con el uso de la razón. (Freepik)

Las estafas evolucionan con la inteligencia artificial

El uso de la IA ha permitido que las estafas sean más personalizadas y convincentes. Los delincuentes pueden combinar datos públicos —como información de redes sociales o correos filtrados— con modelos de lenguaje o de voz para construir ataques precisos. En cuestión de minutos, pueden elaborar mensajes o llamadas que imitan el tono, la forma de hablar y los intereses de una persona.

Esto hace que los métodos tradicionales de detección ya no sean suficientes. Según el informe de la Universidad de Carolina del Norte, los usuarios tienden a confiar más en los contenidos visuales o auditivos, por lo que un video o un audio falsificado tiene más poder de persuasión que un simple texto.

La velocidad con la que se difunden estos materiales también complica la verificación. En redes sociales, un deepfake puede alcanzar miles de visualizaciones antes de ser desmentido, lo que aumenta el riesgo de manipulación o engaño masivo.

Las deepfakes si pueden ser
Las deepfakes si pueden ser detectadas. (Imagen Ilustrativa Infobae)

La regla de oro: detenerse antes de reaccionar

Ante esta situación, los investigadores coinciden en que el primer paso para protegerse no es técnico, sino conductual: reducir la velocidad. Desacelerar el proceso de respuesta frente a un mensaje sospechoso, una llamada urgente o una solicitud inusual puede marcar la diferencia entre caer o no en una estafa.

Los expertos recomiendan desconfiar de toda comunicación que genere presión inmediata o demande una acción rápida, como transferir dinero, compartir contraseñas o abrir enlaces desconocidos. Verificar la identidad del remitente a través de un segundo canal —por ejemplo, una llamada o mensaje directo— es fundamental.

También se aconseja revisar los detalles: las direcciones de correo, la forma de hablar, el contexto o incluso las pequeñas pausas en un mensaje de voz pueden revelar inconsistencias. Y, por supuesto, utilizar herramientas de autenticación de doble factor y filtros de seguridad sigue siendo esencial.