Google ha presentado un programa que ofrece recompensas económicas a investigadores de seguridad que identifiquen vulnerabilidades en sus productos de inteligencia artificial. La compañía puede otorgar bonificaciones de hasta USD 30.000 por cada informe.
En los dos años desde que la empresa invitó formalmente a investigar posibles usos indebidos de la IA en sus servicios, los cazadores de errores han recibido más de USD 430.000.
La lista de fallos reconocidos por Google abarca casos concretos de acciones maliciosas.
Por ejemplo, se considera relevante detectar una inyección de mensajes en la IA que permita a un atacante lograr que Google Home desbloquee una puerta sin autorización o mecanismos que resumen todos los correos electrónicos de un usuario y envían esa información a terceros, sin consentimiento.
Google busca fortalecer la seguridad de sus sistemas, alentando a expertos externos a descubrir y reportar debilidades antes de que puedan ser explotadas.
“Este programa nos permite recompensar a los investigadores de seguridad que dedican su tiempo y esfuerzo a descubrir e informar sobre vulnerabilidades relacionadas con la IA, lo que nos ayuda a proteger nuestras plataformas y a nuestros usuarios”, explica Google.

Cómo participar en este programa de recompensas de Google
Para participar en este programa de recompensas de Google, los usuarios deben ingresar a la página web https://bughunters.google.com/.
Luego tienen que iniciar sesión con una cuenta personal de Google y pulsar la opción de ‘Reportar una vulnerabilidad de seguridad’.
Google sugiere seguir una serie de pasos antes de presentar un informe sobre posibles fallos en sus productos o servicios de inteligencia artificial:
- Revisar las reglas del programa de recompensas (VRP).
Es fundamental leer y comprender las políticas de Google para conocer el alcance del programa, las vulnerabilidades admisibles, los criterios de calidad y el detalle de las recompensas ofrecidas. Conocer estas reglas facilita un reporte efectivo y evita malentendidos.

- Identificar una vulnerabilidad relevante.
Se debe encontrar un fallo de seguridad dentro de los productos o servicios que estén incluidos en el programa. Google destaca la importancia de centrar la investigación en vulnerabilidades válidas, evitando reportes que no correspondan al alcance definido.
- Enviar el informe.
Tras recopilar la información, es momento de compartir el reporte con Google. El equipo analizará el caso y notificará si la vulnerabilidad califica para una recompensa. De este modo, los investigadores reciben una respuesta clara sobre la validez y el impacto de su hallazgo.
Qué errores reconoce Google
Google ha detallado los tipos de errores que reconoce dentro de su nuevo programa de recompensas para vulnerabilidades en productos de inteligencia artificial.
El objetivo es que los investigadores puedan identificar, reportar y ayudar a subsanar fallos que afectan la seguridad de los usuarios. A continuación, se describen algunas categorías.
Una de ellas corresponde a acciones maliciosas que modifican el estado de la cuenta o los datos de la víctima, con un impacto directo en la seguridad. Un caso hipotético es mediante una inyección indirecta de avisos, un atacante puede lograr que Google Home realice una acción inesperada y sin confirmación, como desbloquear una puerta sin autorización.
Asimismo, Google contempla situaciones de habilitación de phishing. Esto ocurre cuando hay inyección persistente de HTML entre usuarios en un sitio web de Google que no muestre advertencias de “contenido generado por el usuario”, permitiendo así la creación de vectores de ataque convincentes.
De este modo, un atacante puede compartir una página generada por él mismo, ocultando esta advertencia y haciendo que la víctima crea estar frente a un sitio legítimo.
En el caso de los ataques de robo de modelos, se reconoce el riesgo de extraer parámetros completos y confidenciales de un modelo de IA.
Si una API expuesta por Google permite la obtención involuntaria de datos detallados, como los valores exactos de pérdida de entradas arbitrarias de un modelo protegido, se considera una vulnerabilidad relevante, aunque los informes exitosos en este ámbito son poco frecuentes.
Últimas Noticias
Adobe predice un aumento del 520% en las compras asistidas por inteligencia artificial en Navidad
El informe estima que las ventas en línea durante la temporada de compras navideñas en Estados Unidos alcanzarán los 253.400 millones de dólares este año

Meta continúa transformando Facebook: ahora sus reels son más parecidos a los de Instagram
Uno de los cambios más notables es la introducción de las llamadas “burbujas de amigos”

Microsoft prepara una actualización muy esperada para el modo oscuro de Windows
La actualización no solo busca reforzar la consistencia, sino que también permitirá un mayor grado de personalización
Tesla lanza versiones ‘económicas’ de sus autos eléctricos
La estrategia de precios más bajos — debido al recorte de equipamiento— podría atraer a nuevos compradores y ampliar la presencia de la marca

AMD firma un acuerdo millonario con OpenAI para suministrar chips de IA
La decisión de la empresa de Sam Altman responde a una estrategia de diversificación de proveedores en un contexto de demanda creciente
