Condusef alerta sobre estafas por clonación de voz con IA: así puedes identificarlas

Grupos delictivos ahora utilizan Inteligencia Artificial (IA) para estafar a la población

Guardar
Estafas.
Estafas.

Las estafas telefónicas mediante la clonación de voz con inteligencia artificial han comenzado a multiplicarse en México, situación que ha encendido las alertas de la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef).

Las autoridades advierten sobre nuevas modalidades de fraude, donde delincuentes utilizan tecnología de inteligencia artificial para imitar la voz de familiares, principalmente de hijos, con el objetivo de obtener información personal o dinero de sus víctimas.

¿Cómo funcionan los fraudes por clonación de voz con IA?

Piden verificar ante llamadas que
Piden verificar ante llamadas que usan IA Crédito: Condusef - X

La técnica utilizada por los estafadores consiste en recopilar muestras de voz de redes sociales, mensajes de voz o videos compartidos en distintas plataformas. Posteriormente, estas grabaciones se procesan mediante sistemas de inteligencia artificial capaces de replicar de manera convincente el tono, timbre y forma de hablar de una persona. De este modo, los delincuentes realizan llamadas simulando ser un familiar en situación de urgencia, con la finalidad de manipular o extorsionar a los destinatarios.

Condusef explica que estos fraudes presentan altos niveles de sofisticación y pueden persuadir fácilmente a las víctimas. Reportes recientes destacan un aumento en la incidencia de este delito, especialmente con la facilidad que ofrece internet y las redes sociales para acceder a grabaciones de voz de millones de usuarios.

¿Cómo evitar las estafas por clonación de voz?

Estafas.
Estafas.

El gobierno mexicano, a través de la Secretaría de Seguridad y Protección Ciudadana (SSPC) y Condusef, ha publicado una serie de recomendaciones para hacer frente a este tipo de fraudes. Entre las medidas recomendadas se encuentra no compartir datos personales ni financieros por teléfono, y en caso de recibir una llamada sospechosa de un supuesto familiar, colgar y buscar comunicarse directamente con la persona involucrada mediante otros medios para verificar su situación.

La SSPC también aconseja evitar las publicaciones en redes sociales con información sensible, grabaciones de voz o datos que puedan ser utilizados por terceros. Se recomienda establecer palabras clave familiares para casos de emergencia, de modo que sirvan como mecanismo de autenticación en comunicaciones urgentes.

Las autoridades piden conservar la calma y reportar cualquier incidente o intento de fraude tanto a las instituciones financieras como a la policía cibernética. De la misma manera, la Condusef ha abierto canales de denuncia y orientación para usuarios afectados o con dudas sobre este tipo de delitos.

De acuerdo a cifras recabadas por la SSPC, una encuesta realizada por una empresa de seguridad tecnológica reveló que 1 de cada 10 personas encuestadas manifestó haber recibido un mensaje de un clon de voz con IA, y el 77% dijo haber sido víctima de fraude por medio de este mismo método. Estos porcentajes muestran la rapidez con la que este tipo de delitos se expande y el nivel de afectación que puede tener sobre la población.