Adaptive Perturbation for Adversarial Attack
题目:自适应扰动对抗性攻击
作者:Zheng Yuan; Jie Zhang; Zhaoyan Jiang; Liangliang Li; Shiguang Shan
摘要
随着神经网络的快速发展,深度学习模型的安全性问题越来越受到关注,因为它们容易受到对抗性样本的攻击。几乎所有现有的基于梯度的攻击方法都在生成过程中使用符号函数来满足L∞范数下的扰动预算要求。然而,我们发现符号函数可能不适用于生成对抗性样本,因为它修改了确切的梯度方向。与使用符号函数不同,我们提出直接利用精确的梯度方向和一个缩放因子来生成对抗性扰动,即使在扰动较少的情况下也能提高对抗性样本的攻击成功率。同时,我们也从理论上证明了这种方法可以实现更好的黑盒迁移性。此外,考虑到不同图像之间最佳缩放因子的变化,我们提出了一个自适应缩放因子生成器,为每张图像寻找合适的缩放因子,避免了手动搜索缩放因子的计算成本。我们的方法可以与几乎所有现有的基于梯度的攻击方法集成,进一步提高它们的攻击成功率。在CIFAR10和ImageNet数据集上的广泛实验表明,我们的方法展现出更高的迁移性,并且超越了现有的最先进方法