
Un informe del programa de Ingeniería de Sonido de la Universidad de San Buenaventura, Bogotá, explicó cómo operan los deepfakes (videos o audios generados con inteligencia artificial para suplantar personas), las señales que permiten identificarlos y las medidas para evitar robos durante la temporada de fin de año.
Las recomendaciones son realizadas en medio del cierre de año, época que trae un riesgo por lo que los especialistas en sonido y ciberseguridad hablaron de cómo detectar la clonación de voces mediante inteligencia artificial, empleadas para fraudes y extorsiones.
Ahora puede seguirnos en Facebook y en nuestro WhatsApp Channel
Un informe de la Universidad de San Buenaventura (USB), sede Bogotá, aseguró que esta modalidad puede incrementarse hasta un 30% en diciembre y ofrece pautas prácticas de protección: “La voz genera confianza inmediata y por eso resulta tan atractiva para los estafadores”, explicó Marcelo Herrera, docente de Ingeniería de Sonido de la USB.

Las cifras internacionales presentadas por el Fall 2025 Threat Report de Ironscales reveló que el 85% de las empresas enfrentó al menos un incidente con deepfakes en el último año, y que más de la mitad reportó pérdidas superiores a USD 280.000 por ataque.
Gartner informó que el 62% de las compañías recibió intentos similares y que en el 44% de los casos se emplearon audios sintéticos que imitan voces humanas. McAfee indicó que uno de cada 10 individuos fue víctima directa de una estafa con voz clonada y que el 67% de los afectados perdió dinero al actuar bajo presión.
En Colombia, el fenómeno también muestra un crecimiento preocupante. Hasta septiembre, la Policía Nacional reportó 64 denuncias por extorsión en Bolívar, de las cuales 24 corresponden a modalidades digitales que implican voces clonadas e imágenes generadas con inteligencia artificial.
En ese mismo periodo, el Gaula realizó 36 capturas vinculadas a estos hechos. La Estrategia Nacional de Seguridad Digital advirtió que el país fue el segundo más afectado digitalmente en América Latina en 2024, concentrando el 17% de los intentos regionales de ataque. Además, la Ley 2502 de 2025 endureció las penas por falsedad personal cuando se emplea inteligencia artificial para suplantación de identidad.

Modalidad de las estafas con voces clonadas en diciembre
En estos meses, los delincuentes se valen de las llamadas asociadas a viajes, envíos, compras y reuniones familiares que aumentan y facilitan que un audio inesperado pase desapercibido en la rutina.
Sobre la modalidad empleada, el informe aclaró que los estafadores inician con mensajes breves que imitan la voz de un familiar o jefe, utilizando fragmentos extraídos de redes sociales, estados de WhatsApp o grabaciones antiguas. Con solo unos segundos de material, entrenan modelos de inteligencia artificial que replican timbre y ritmo de manera fiel. El fraude tiene el siguiente patrón:
- Los criminales generan impacto emocional, valiéndose de miedo, confusión o urgencia, con historias de accidentes, bloqueos bancarios u otras situaciones críticas, y después incentivan a la víctima a actuar de inmediato.
- En ese momento le solicitan dinero, claves o información personal.
- “El delincuente conoce la reacción cerebral al escuchar a un ser querido en peligro; por eso crean historias cortas y presionan la decisión”, señaló Herrera.
Los audios clonados suelen presentar una voz demasiado nítida, silencios sin ambiente, frases poco fluidas o variaciones abruptas en la entonación e impiden cualquier verificación, pues interrumpen la llamada, envían otro audio o insisten en no poder comunicarse.
Adicionalmente, en esta temporada combinan la clonación de voz con otros métodos: perfiles falsos, números desconocidos o enlaces que suplantan entidades legítimas. En el contexto de las compras, el estrés y la preocupación de las reuniones familiares, un audio aparentemente creíble puede bastar para lograr que alguien responda sin detenerse a dudar.

Cinco medidas para actuar rápidamente y evitar estos fraudes
- Verifique por otro canal: corte la comunicación y contacte directamente a la persona por un número diferente.
- Pregunte algo que solo el verdadero contacto pueda responder: aunque la IA imite voces, no reproduce recuerdos personales.
- Escuche el audio con audífonos: “Muchas manipulaciones se detectan al final de cada frase”, indicó Herrera.
- Espere veinte segundos antes de actuar: esa pausa corta el efecto de manipulación emocional.
- Nunca envíe dinero sin verificar por varios medios: si existe presión, lo más probable es que se trate de un fraude.
Finalmente, Herrera recomendó establecer una palabra clave familiar para emergencias y definir protocolos internos en empresas para validar pagos y modificaciones de cuentas.
Además, aclaró que es fundamental analizar el contexto de la llamada: si el mensaje contradice la rutina del contacto, probablemente se trata de un intento de engaño, por lo que recordó la importancia de guardar el audio y reportarlo, pues esto previene nuevas víctimas: “La seguridad no depende de la tecnología, sino de la calma al verificar”, concluyó el experto.
Más Noticias
En plena hora pico cerrarán más de 10 vías principales en Bogotá, por la ciclovía nocturna de diciembre
Bogotá tendrá en diciembre una jornada nocturna de ciclovía con actividades y recorridos en diferentes puntos de la ciudad: los conductores de carros y motos tendrán que tomar vías alternas

Álvaro Uribe sobre la relación de Petro y su gobierno con grupos armados: “Él ofreció unas ventajas y ellos obligaron a votar por él”
Esta declaración sintetiza la gravedad que, según el exmandatario, reviste la influencia de los grupos armados en el escenario político actual

Salario mínimo 2026: este sería el valor del auxilio de transporte con el incremento del 11 % planteado por el Gobierno
El posible incremento de dos dígitos en el auxilio de transporte para 2026 preocupa a empleados y empresarios, mientras la negociación del salario mínimo sigue sin acuerdo

Dólar en Colombia inicia el 4 de diciembre con pérdidas: cuál es su valor en pesos
Se registró una baja en los valores del dólar con respecto a la jornada anterior
La Procuraduría pidió declarar inconstitucional un artículo clave de la reforma laboral
El pronunciamiento de la entidad reavivó el debate sobre la protección de los derechos laborales en Colombia




