Microsoft ofrece recompensas de hasta $ 30,000 por vulnerabilidades de IA

Microsoft ha lanzado un programa ampliado de recompensa de errores que ofrece recompensas de hasta $ 30,000 para los investigadores que identifican vulnerabilidades críticas en los sistemas de IA dentro de los productos Dynamics 365 y Power Platform.

La iniciativa, publicada por Microsoft Security Response, tiene como objetivo mejorar la seguridad de la IA empresarial alentando a los piratas informáticos éticos a revelar debilidades potenciales antes de que los actores maliciosos puedan explotarlos.

Marco de clasificación de seguridad de IA

El programa aprovecha la clasificación de gravedad de vulnerabilidad recientemente desarrollada de Microsoft para los sistemas de IA que clasifican los riesgos de seguridad específicos de IA en tres tipos de vulnerabilidad principales.

Esta categoría aborda las vulnerabilidades que pueden explotarse para manipular la respuesta del modelo a las solicitudes de inferencia individual sin modificar el modelo en sí. Los principales tipos de vulnerabilidad son:

Inyección rápida: las instrucciones inyectadas permiten ataques donde el modelo genera salida no deseada, lo que permite a los atacantes eliminar los datos del usuario y realizar acciones privilegiadas.

Inyección rápida de gravedad sin requerir la interacción del usuario y no es necesario ganar el premio más alto.

Actualmente, ofrecemos hasta $ 30,000 premios para vulnerabilidades de IA en Dynamics 365 y Power Platform.

Los tipos de vulnerabilidad elegible se definen en la clasificación de gravedad de vulnerabilidad de Microsoft para sistemas de IA (https://t.co/un5rjtlwbm) e incluyen:
•inferencia…

– Respuesta de seguridad (@msftSeCresponse) 23 de abril de 2025

Perturbación de entrada: genera una vulnerabilidad en la que un atacante ingresa por error y produce una salida incorrecta, también conocida como evasión del modelo o ejemplo adversario.

Operación modelo

Estas vulnerabilidades cubren la fase de capacitación de los sistemas de IA, que incluyen:

Adicción al modelo: los ataques cuando la arquitectura del modelo, el código de entrenamiento, los hiperparámetros o los datos de entrenamiento son manipulados.

Adicción de datos: cuando un atacante agrega registros de veneno al conjunto de datos utilizado para entrenar o ajustar el modelo, podría introducir una puerta trasera que puede ser activada por entradas específicas.

Divulgación de inferencia

Esta categoría incluye vulnerabilidades que podrían exponer información confidencial sobre datos de entrenamiento de modelos, arquitectura o peso.

Inferencia de membresía: Capacidad para determinar si un registro de datos particular es parte de los datos de capacitación de un modelo. Inferencia de atributos: una técnica para inferir los atributos sensibles de los registros utilizados en la capacitación. Reconstruyendo datos de capacitación: cómo reconstruir los registros de datos individuales de los conjuntos de datos de capacitación. Robado del modelo: un ataque que le permite crear copias funcionalmente equivalentes del modelo objetivo utilizando solo respuestas de inferencia.

Estructura de recompensa y elegibilidad

Los premios Bounty varían de $ 500 a $ 30,000, con las más altas recompensas por las vulnerabilidades de mayor gravedad.

El programa se dirige específicamente a las integraciones de IA en PowerApps, aplicaciones basadas en modelos, Dataverse, AI Builder y Microsoft Copilot Studio.

Los sistemas de clasificación de gravedad tienen en cuenta tanto el tipo de vulnerabilidad como sus implicaciones de seguridad, proporcionando la mejor recompensa por las vulnerabilidades que permiten a los atacantes eliminar los datos de otros usuarios o realizar acciones privilegiadas sin interactuar con los usuarios.

Los investigadores de seguridad interesados ​​en participar pueden comenzar registrándose para una prueba gratuita de Dynamics 365 o Services de plataforma de potencia.

Microsoft proporciona documentación detallada para cada producto para ayudar a los investigadores a comprender los sistemas que están probando.

“Su investigación podría ayudarnos a mejorar la seguridad de la IA Enterprise”, anunció el equipo de respuesta de seguridad de Microsoft.

El programa forma parte de las iniciativas de seguridad más amplias de Microsoft. Esto incluye programas de premios para una variedad de productos y servicios de Microsoft.

Todas las presentaciones serán revisadas para la elegibilidad del premio y los investigadores serán reconocidos incluso si no son elegibles para la compensación financiera y conducirán a una mejor seguridad.

A través de esta iniciativa, Microsoft continúa enfatizando sus esfuerzos de seguridad conjuntos a medida que la integración de IA se profundiza en las soluciones empresariales.

Informe de tendencia de malware 15,000 incidentes del equipo SOC, trimestre de 2025! -> Obtenga una copia gratis