La IA engaña a grandes empresas: usuarios que ganan recompensas por reportar fallos en internet están diciendo mentiras

Los programas de recompensas por errores enfrentan una nueva amenaza: vulnerabilidades inventadas por inteligencia artificial

Guardar
Usuarios recurren a la IA
Usuarios recurren a la IA para encontrar problemas de ciberseguridad, pero los informes que entregan son inventados. (Imagen Ilustrativa Infobae)

Los programas de recompensas por errores, conocidos como bug bounty, son una herramienta esencial para la ciberseguridad. Permiten que investigadores independientes identifiquen fallos en sistemas y aplicaciones antes de que los ciberdelincuentes puedan aprovecharlos, recibiendo una compensación económica por su aporte. Sin embargo, una nueva tendencia amenaza con poner en jaque este ecosistema: el uso de inteligencia artificial para fabricar vulnerabilidades falsas.

Durante los últimos meses, plataformas como HackerOne o Bugcrowd se han visto inundadas de informes creados con ayuda de modelos de lenguaje que describen fallos de seguridad inexistentes. Estos reportes, aparentemente técnicos y convincentes, son en realidad inventos generados por IA. Lo que comenzó como una herramienta para agilizar el trabajo de los investigadores, se ha convertido en un recurso para intentar obtener recompensas sin haber realizado ningún análisis real.

El caso más reciente que ilustra esta situación es el del proyecto cURL, una de las herramientas más usadas en la red para transferir datos. Su responsable principal, Daniel Stenberg, confirmó que ha tenido que bloquear de forma inmediata a varios usuarios por enviar informes creados por inteligencia artificial.

Las plataformas que entregan recompensas
Las plataformas que entregan recompensas por encontrar fallas en sistemas de seguridad digital se han visto afectados por reportes falsos. (Imagen Ilustrativa Infobae)

La nueva amenaza: vulnerabilidades inventadas

Los reportes falsos se presentan con títulos técnicos y alarmantes —como supuestos desbordamientos de búfer o errores de manejo en protocolos HTTP—, pero al ser revisados no tienen ningún sustento técnico. En el caso de cURL, Stenberg explicó que los informes contenían errores evidentes: funciones inexistentes, rutas de archivo incorrectas y ejemplos de código que no podían ejecutarse.

Ante esta oleada, el equipo del proyecto decidió implementar una política estricta: quienes envíen contenido generado por IA sin verificación humana serán baneados de inmediato. “Básicamente, estamos bloqueando todo lo que identificamos como AI slop”, explicó Stenberg. El término se ha vuelto común para referirse a ese tipo de contenido artificial: coherente en apariencia, pero vacío en sustancia.

Este tipo de reportes no solo ocupan tiempo y recursos de los equipos de seguridad, sino que además restan credibilidad a la comunidad de investigadores que participan de buena fe en los programas de recompensas.

Plataformas de seguridad digital ya
Plataformas de seguridad digital ya han empezado a tomar medidas contra quienes entreguen informes falsos. (Imagen Ilustrativa Infobae)

Cómo detectar un informe creado por IA

Las plataformas de bug bounty están comenzando a implementar medidas para filtrar los reportes generados por inteligencia artificial. Algunas señales comunes permiten identificarlos rápidamente: frases repetitivas entre distintos informes, lenguaje genérico, referencias a funciones inexistentes y ausencia total de una prueba de concepto funcional.

En los casos más obvios, incluso el código que acompaña el reporte no compila o resulta incoherente. Esto deja en evidencia que la IA no ha analizado el software, sino que simplemente ha fabricado un texto que “suena” técnico.

Para los equipos de seguridad, el desafío está en equilibrar la detección automática de estos reportes sin perjudicar a los investigadores que sí utilizan herramientas de IA como apoyo legítimo en su trabajo.

Plataformas de ciberseguridad ya cuentan
Plataformas de ciberseguridad ya cuentan con filtros para evitar revisar reportes falsos..(Imagen Ilustrativa Infobae)

Un problema de incentivos y ética

El auge de las herramientas generativas ha cambiado las reglas del juego. Los bug bounty programs ofrecen recompensas que pueden superar los miles de dólares, y eso ha motivado a algunos usuarios a intentar aprovecharse del sistema. Basta con pedirle a un modelo de lenguaje que “encuentre vulnerabilidades” en un repositorio de código para obtener en minutos un informe aparentemente creíble.

El problema es que esa automatización elimina la parte esencial del proceso: la investigación humana y la validación técnica. A medida que aumentan los reportes falsos, las empresas pierden tiempo en revisiones inútiles, y los verdaderos expertos en seguridad ven cómo su trabajo se devalúa.

Desde el punto de vista ético, el debate es complejo. Muchos especialistas defienden el uso responsable de la inteligencia artificial para asistir en la búsqueda de vulnerabilidades —por ejemplo, automatizando análisis estáticos o revisiones de código—, siempre que los resultados sean verificados por una persona. Pero cuando el contenido generado se presenta como si fuera propio, el límite entre colaboración y fraude desaparece.

 (Imagen Ilustrativa Infobae)
(Imagen Ilustrativa Infobae)

Confianza en riesgo dentro de la comunidad de seguridad

La esencia de los programas de recompensas se basa en la confianza. Las empresas deben creer que los reportes que reciben son genuinos, mientras que los investigadores confían en que su trabajo será reconocido y compensado. La irrupción de los informes falsos amenaza con romper ese equilibrio.

Si la tendencia continúa, es probable que las plataformas deban endurecer sus controles, exigir mayor verificación de identidad o requerir pruebas técnicas más completas antes de aceptar reportes. Esto podría complicar el trabajo de los investigadores legítimos y ralentizar los procesos de revisión, afectando a toda la comunidad.

La inteligencia artificial tiene el potencial de fortalecer la ciberseguridad, pero su mal uso está generando el efecto contrario: ruido, desconfianza y pérdida de tiempo. En un entorno donde la precisión y la honestidad son vitales, los reportes fabricados por IA no solo representan un problema técnico, sino también un riesgo ético para el futuro de la investigación en seguridad digital.