Detectan nuevas extorsiones con Inteligencia Artificial que vulneran a familias de personas desaparecidas

La Comisión Nacional de Búsqueda recomienda contactar a la policía cibernética en caso de recibir audios, fotos o videos sospechosos

Guardar
La IA ha sido implementada
La IA ha sido implementada para replicar el rostro de personas desaparecidas (Foto: Infobae México)

La Secretaría de Gobernación (Segob) ha alertado sobre una nueva modalidad de extorsión con el uso de la Inteligencia Artificial (IA) que afecta, particularmente, a las familias de personas desaparecidas en México.

Hasta el 10 de marzo del año en curso, se tenía el reporte de 122 mil 821 personas desaparecidas o no localizadas. Esta agravante, incluso, ha generado la intervención de la Corte Interamericana de Derechos Humanos y Amnistía Internacional.

Son los propios familiares de las personas desaparecidas los que realizan la labor de búsqueda para localizarlos. En ocasiones reciben apoyo de las autoridades estatales y federales, pero lo cierto es que también se encuentran con una serie de dificultades que entorpecen sus trabajos.

Aunado a la angustia, incertidumbre, impotencia y desesperación por no localizar a sus allegados, los integrantes de colectivos de búsqueda ahora se enfrentan a a otro contratiempo: las extorsiones.

Los extorsionadores envían videos realizados
Los extorsionadores envían videos realizados con IA para exigir una suma de dinero a las familias de personas desaparecidas (Foto: especial)

La Comisión Nacional de Búsqueda (CNB) de Personas Desaparecidas ha alertado sobre una nueva forma de extorsión con la ayuda de programas de Inteligencia Artificial, como indicó a finales de enero.

Para ello, los criminales usan la información que comparten las autoridades y colectivos de búsqueda sobre las personas desaparecidas. De acuerdo con las autoridades, el modus operandi consiste en lo siguiente:

  • Los delincuentes buscan perfiles en redes sociales de madres que buscan a sus familiares desaparecidos.
  • Una vez identificada la posible víctima, le mandan un video en el que supuestamente aparece el familiar al que buscan. Para ello, recurren a programas de Inteligencia Artificial para replicar su rostro (que aparece en las fichas de búsqueda) y su voz.
  • Luego de enviar el respectivo video apócrifo, los delincuentes les exigen una suma de dinero para liberar a sus familiares. Como forma de extorsión, también suelen enviar otras imágenes y audios intervenidos con Inteligencia Artificial.
La CNB recomienda presentar la
La CNB recomienda presentar la denuncia correspondiente en caso de recibir videos sospechosos de familiares desaparecidos (Foto: CNB)

Si bien la CNB no ha indicado el número de casos que se han presentado por esta nueva modalidad de extorsión, hizo un llamada a denunciar de manera inmediata este tipo de actos delictivos.

En caso de recibir un video, foto u audio sospechoso, se recomienda llamar al 911 o a la policía cibernética (55 5200 9000) para que se investiguen los hechos. Asimismo, se solicita no efectuar ningún pago a los extorsionadores.

“Evite compartir videos, mensajes de voz o datos personales de tu familiar en redes sociales; solo comparte los datos de contacto de las autoridades correspondientes” se instó.

En la Ciudad de México (CDMX), autoridades capitalinas también han alertado sobre el uso de la Inteligencia Artificial en casos de amenazas, acosos, suplantación de identidad y sexting.