adversarial examples in the physical world
这是 Goodfellow 在ICLR 2017会议上的论文。
目前攻击样例,攻击者均是直接对抗图像喂给分类器,但是这个在现实世界中可能不是那么容易。所以作者模拟了通过相机捕捉的对抗图像,观察现实世界中的对抗效果。因为经过照相和打印,会对原有图像进行了些许的扰动,可能会影响攻击的效果。
作者使用谷歌Inception v3作为目标图像识别模型,并选取ImageNet中的50,000个验证图像针对Inception v3构造出相对应的对抗性图像。因此,作者进行打印图像,照相机拍照等,模拟真实情况中的情况。将图片转换后的对抗样例喂给分类器,结果显示,原先会对对抗样例误分类的分类器,在接受现实世界中有些扰动的对抗图像后,仍有一大部分被误分类。从而说明了现实世界中存在对抗攻击的可行性。