
La inteligencia artificial (IA) ha revolucionado diversas industrias, desde la medicina hasta la educación, pero también ha abierto la puerta a un nuevo tipo de delincuencia. Los ciberdelincuentes, al aprovechar las capacidades de la IA, han comenzado a generar contenido falso con fines malintencionados, como el fraude, la difamación, la manipulación política y social, entre otros.
Utilizando herramientas avanzadas, estos delincuentes crean textos, imágenes, vídeos y audios falsos que pueden resultar extremadamente convincentes. Esta tecnología no solo ha facilitado la creación de contenido engañoso, también ha transformado la forma en que los atacantes operan en línea.
Según información suministrada por el Instituto Nacional de Ciberseguridad de España (Incibe), la IA está siendo utilizada para generar fake news o noticias falsas, diseñadas para desinformar y manipular a la opinión pública. Un ejemplo claro de esto son los generadores de texto como ChatGPT, que permiten crear artículos completos con un estilo muy similar al de los periodistas profesionales.

Esta capacidad de producir contenido escrito de alta calidad ha permitido a los ciberdelincuentes difundir desinformación de forma masiva.
Cómo crean imágenes falsas los ciberdelincuentes
Además de los generadores de texto, los ciberdelincuentes también utilizan IA para crear contenido visual y auditivo falsificado. Herramientas como DeepFaceLab permiten la creación de deepfakes, alterando vídeos de manera que son casi indistinguibles de los reales.
Estas herramientas utilizan redes neuronales para mapear y superponer rostros, creando vídeos falsos en los que personas como políticos o celebridades pueden aparecer diciendo o haciendo cosas que nunca ocurrieron.

La capacidad de manipular vídeos de esta manera ha sido aprovechada para difundir propaganda, suplantar identidades y afectar la reputación de figuras públicas.
Cómo puede la IA llegar a clonar una voz
Por otro lado, la clonación de voz es otro de los avances que los ciberdelincuentes explotan. Programas como Lyrebird permiten replicar con alta precisión la voz de cualquier persona. Usando esta tecnología, los atacantes pueden crear audios falsos, en los que una persona parece estar pronunciando palabras o haciendo declaraciones que nunca dijo.
Esto no solo es utilizado para difundir rumores o declaraciones falsas, también se ha utilizado en fraudes económicos. Un caso real reportado por el Incibe describe cómo ciberdelincuentes utilizaron una voz clonada para estafar a una persona, haciendo que creyera que un familiar cercano estaba solicitando dinero en una emergencia. La víctima, al reconocer la voz, accedió a transferir una cantidad considerable de dinero.

Cómo no caer en los engaños creados con IA
Texto: En el caso de artículos o publicaciones escritas, es importante verificar la coherencia y la gramática del contenido. Los textos generados por IA pueden presentar errores sutiles, como repeticiones innecesarias o incoherencias en el estilo, que no son comunes en textos escritos por humanos.
Vídeo: Los deepfakes a menudo presentan anormalidades, como un número excesivo de parpadeos o movimientos faciales poco naturales. También puede haber incongruencias entre el rostro y el cuerpo, o la calidad del sonido puede no coincidir con la imagen, mostrando desfases o tonos extraños.
Audio: En el caso de audios generados por IA, como en el caso de la clonación de voces, se puede detectar variaciones inusuales en el tono o el ritmo del habla. Además, la falta de ruido de fondo o la presencia de sonidos extraños puede ser indicativo de manipulación.
Imágenes: Las imágenes generadas o alteradas por IA a menudo presentan detalles finos defectuosos, como manos con dedos desproporcionados o fondos que no se alinean correctamente. También se puede notar que la iluminación y las sombras no son coherentes en toda la imagen.
Qué herramientas hay para verificar el contenido falso generado por IA
Afortunadamente, existen herramientas específicas que pueden ayudar a los usuarios a detectar contenido falso generado por IA. Según el Instituto Nacional de Ciberseguridad, algunas de las herramientas más efectivas incluyen:
- Detectores de IA para texto: Herramientas como GPTZero y Copyleaks permiten analizar el contenido escrito y determinar si ha sido generado por IA. Estas herramientas son capaces de detectar patrones lingüísticos y estructuras gramaticales que son característicos de los modelos de lenguaje artificial.
- Herramientas de detección de multimedia: Para vídeos y audios falsos, existen plataformas como Deepware, que permiten analizar y detectar deepfakes con alta precisión. Además, VerifAI y Resemble Detect permiten verificar si un contenido ha sido alterado o generado mediante IA.
Últimas Noticias
Encuentran nueva estafa que pone en peligro la privacidad: todo empieza con una voz falsa hecha con IA
Los ciberdelincuentes hacen creer a sus víctimas que se están comunicando con una persona real que los ayudará a configurar los ajustes de privacidad de su correo electrónico

La jornada laboral de ocho horas está en peligro: Elon Musk quiere extenderla hasta 12 horas
Musk ha afirmado que el número ideal de horas de trabajo varía, pero generalmente ronda las 80 horas semanales, pudiendo superar las 100 en algunos casos

Bill Gates recomienda el mejor libro para saber cómo manejar el uso del celular de tu hijo
El cofundador de Microsoft cree que haber crecido alejado de las pantallas fue fundamental para su desarrollo intelectual

El regreso del MP3: así es el dispositivo que reproduce Spotify y Amazon Music sin conexión a Internet
El Mighty 3 cuenta con 8GB de almacenamiento, lo que permite almacenar hasta 1.000 canciones, y ofrece hasta 8 horas de reproducción continua sin interrupciones

Un iPhone fabricado en Estados Unidos: es un sueño americano muy costoso o realmente posible
El incremento de los aranceles de Estados Unidos a los productos provenientes de China podría generar que Apple tome nuevas decisiones para la fabricación de ciertos productos
