原标题:CVPR2020 | 对抗伪装:如何让AI怀疑人生!
本文介绍的是CVPR2020论文《Adversarial Camouflage: Hiding Physical-World Attacks with Natural Styles》,作者是来自澳大利亚Swinbourne大学的段然杰。
作者 | 段然杰
编辑 | 丛 末
论文地址:https://arxiv.org/abs/2003.08757
开源地址:https://github.com/RjDuan/AdvCam-Hide-Adv-with-Natural-Styles
想象一下,有一天你坐在自动驾驶汽车行驶在街道上,右前方有个stop的牌子,除了有点旧,看起来并没有什么异样,你没有留心太多,继续专注手头的工作,可是车并没有停下来…
如果你是广大炼丹师的一员,你一定听说过对抗样本,对抗样本作为神经网络出其不意的bug ,近年引起很多关注,在你的印象中,ta 可能是这样子的:
Figure 1. FGSM [1]
但是, 由于现实环境的多种因素( 例如光照、拍摄距离等) ,这种小量的干扰不易被相机等设备捕捉到,从而只能在数字世界里发挥作用。当然,也有一些工作将对抗样本带到现实世界中,并产生威胁,例如Brown 等人在2017 年提出的adversarial patch [2]: