论文原文:One pixel attack for fooling deep neural networks
论文链接:https://arxiv.org/abs/1710.08864
代码:https://github.com/Hyperparticle/one-pixel-attack-keras
Adversarial Attack
对抗攻击不过多阐述,如上图所示,在原图像x0上加上一些perturbations得到x`,可以误导识别网络的识别结果。
AdvGAN
论文链接:https://arxiv.org/abs/1801.02610
简单回顾一下对抗样本领域经典之作——advGAN,将origin image x放入生成器g产生perturbations即g(x),产生的perturbations加在x上从而产生对抗样本用来误导识别网络。
在实际的训练过程中:
advGAN的损失函数: