Adversarial Attacks on Neural Network Policies | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
‡Pennsylvania State University, School of Electrical Engineering and Computer Science §OpenAI |
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Abstract — Machine learning classifiers are known to be vulnerable to inputs maliciously constructed by adversaries to force misclassification. Such adversarial examples have been extensively studied in the context of computer vision applications. In this work, we show that adversarial attacks are also effective when targeting neural network policies in reinforcement learning. Specifically, we show that existing adversarial example crafting techniques can be used to significantly degrade the test-time performance of trained policies. Our threat model considers adversaries capable of introducing small perturbations to the raw input of the policy. We characterize the degree of vulnerability across tasks and training algorithms, for a subclass of adversarial-example attacks in white-box and black-box settings. Regardless of the learned task or training algorithm, we observe a significant drop in performance, even with small adversarial perturbations that do not interfere with human perception. |
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Paper: [arXiv] | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Supplementary Videos:
White-Box Black-Box (Transferability Across Policies) Black-Box (Transferability Across Algorithmis) | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Supplementary Videos: White-Box
In the white-box setting, the adversary has complete access to the target neural network policy.
Click on any of the links below to see the corresponding video of adversarial perturbations for a particular game, learning algorithm, and adversary combination.
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
FGSM ε =
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Supplementary Videos: Black-Box (Transferability Across Policies)
In this black-box setting, the adversary has access to the training environment and knows the training algorithm and hyperparameters. It knows the neural network
architecture of the target policy, but not its random initialization -- so the adversary trains its own version of the policy, and uses this to generate attacks
for the (separate) target policy.
Click on any of the links below to see the corresponding video of black-box adversarial perturbations for a particular game, learning algorithm, and adversary combination.
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
FGSM ε =
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Supplementary Videos: Black-Box (Transferability Across Algorithms)
In this black-box setting, the adversary has access to the training environment, but does not know the training algorithm or hyperparameters. It knows the neural network
architecture of the target policy, but not its random initialization -- so the adversary trains its own version of the policy using its own deep RL algorithm,
and uses this to generate attacks for the (separate) target policy.
Click on any of the links below to see the corresponding video of black-box adversarial perturbations for a particular game, learning algorithm, and adversary combination.
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
FGSM ε =
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Last Update: February 17, 2017 |