Google pagará hasta 30.000 dólares por detectar fallos en su IA: así puedes participar

Este nuevo programa de recompensas está dirigido a investigadores de ciberseguridad, con el fin de incentivar el descubrimiento y reporte de vulnerabilidades en inteligencia artificial

Guardar
Google lanza un programa de
Google lanza un programa de recompensas para investigadores de seguridad. REUTERS/Dado Ruvic/Illustration/File Photo

Google ha presentado un programa que ofrece recompensas económicas a investigadores de seguridad que identifiquen vulnerabilidades en sus productos de inteligencia artificial. La compañía puede otorgar bonificaciones de hasta USD 30.000 por cada informe.

En los dos años desde que la empresa invitó formalmente a investigar posibles usos indebidos de la IA en sus servicios, los cazadores de errores han recibido más de USD 430.000.

La lista de fallos reconocidos por Google abarca casos concretos de acciones maliciosas.

Este nuevo programa de recompensas
Este nuevo programa de recompensas es enfocado en productos de inteligencia artificial. REUTERS/Dado Ruvic/Illustration/File Photo

Por ejemplo, se considera relevante detectar una inyección de mensajes en la IA que permita a un atacante lograr que Google Home desbloquee una puerta sin autorización o mecanismos que resumen todos los correos electrónicos de un usuario y envían esa información a terceros, sin consentimiento.

Google busca fortalecer la seguridad de sus sistemas, alentando a expertos externos a descubrir y reportar debilidades antes de que puedan ser explotadas.

“Este programa nos permite recompensar a los investigadores de seguridad que dedican su tiempo y esfuerzo a descubrir e informar sobre vulnerabilidades relacionadas con la IA, lo que nos ayuda a proteger nuestras plataformas y a nuestros usuarios”, explica Google.

Para notificar vulnerabilidades en su
Para notificar vulnerabilidades en su inteligencia artificial, Google aconseja seguir un protocolo previo. (Imagen Ilustrativa Infobae)

Cómo participar en este programa de recompensas de Google

Para participar en este programa de recompensas de Google, los usuarios deben ingresar a la página web https://bughunters.google.com/.

Luego tienen que iniciar sesión con una cuenta personal de Google y pulsar la opción de ‘Reportar una vulnerabilidad de seguridad’.

Google sugiere seguir una serie de pasos antes de presentar un informe sobre posibles fallos en sus productos o servicios de inteligencia artificial:

  • Revisar las reglas del programa de recompensas (VRP).

Es fundamental leer y comprender las políticas de Google para conocer el alcance del programa, las vulnerabilidades admisibles, los criterios de calidad y el detalle de las recompensas ofrecidas. Conocer estas reglas facilita un reporte efectivo y evita malentendidos.

Google recomienda constituir un informe
Google recomienda constituir un informe robusto para participar en el programa. (Google)
  • Identificar una vulnerabilidad relevante.

Se debe encontrar un fallo de seguridad dentro de los productos o servicios que estén incluidos en el programa. Google destaca la importancia de centrar la investigación en vulnerabilidades válidas, evitando reportes que no correspondan al alcance definido.

  • Enviar el informe.

Tras recopilar la información, es momento de compartir el reporte con Google. El equipo analizará el caso y notificará si la vulnerabilidad califica para una recompensa. De este modo, los investigadores reciben una respuesta clara sobre la validez y el impacto de su hallazgo.

Qué errores reconoce Google

Google ha detallado los tipos de errores que reconoce dentro de su nuevo programa de recompensas para vulnerabilidades en productos de inteligencia artificial.

El fin de este programa
El fin de este programa es identificar y corregir vulnerabilidades que afectan la seguridad. REUTERS/Dado Ruvic/Illustration/File Photo

El objetivo es que los investigadores puedan identificar, reportar y ayudar a subsanar fallos que afectan la seguridad de los usuarios. A continuación, se describen algunas categorías.

Una de ellas corresponde a acciones maliciosas que modifican el estado de la cuenta o los datos de la víctima, con un impacto directo en la seguridad. Un caso hipotético es mediante una inyección indirecta de avisos, un atacante puede lograr que Google Home realice una acción inesperada y sin confirmación, como desbloquear una puerta sin autorización.

Las recompensas son de hasta
Las recompensas son de hasta 30.000 dólares. REUTERS/Carlos Barria/File Photo/File Photo

Asimismo, Google contempla situaciones de habilitación de phishing. Esto ocurre cuando hay inyección persistente de HTML entre usuarios en un sitio web de Google que no muestre advertencias de “contenido generado por el usuario”, permitiendo así la creación de vectores de ataque convincentes.

De este modo, un atacante puede compartir una página generada por él mismo, ocultando esta advertencia y haciendo que la víctima crea estar frente a un sitio legítimo.

En el caso de los ataques de robo de modelos, se reconoce el riesgo de extraer parámetros completos y confidenciales de un modelo de IA.

Si una API expuesta por Google permite la obtención involuntaria de datos detallados, como los valores exactos de pérdida de entradas arbitrarias de un modelo protegido, se considera una vulnerabilidad relevante, aunque los informes exitosos en este ámbito son poco frecuentes.