One Pixel Attack for Fooling Deep Neural Networks

本文研究了一种新的单像素对抗性攻击方法,利用差分进化(DE)在深度神经网络(DNN)中引发误分类。该攻击在CIFAR-10和ImageNet数据集上表现出高成功率,即使只修改一个像素也能显著改变模型预测。这种方法揭示了DNN对低维度攻击的脆弱性,并强调了进化计算在生成对抗性攻击中的潜力。
摘要由CSDN通过智能技术生成

摘要:

  • 最近的研究表明,通过向输入向量添加相对较小的扰动,可以很容易地改变深度神经网络(DNN)的输出。在本文中,我们分析了一个极其有限的场景中的攻击,其中只能修改一个像素。

  • 为此,我们提出了一种基于差分进化(DE)生成单像素对抗性扰动的新方法。它需要较少的对抗性信息(黑盒攻击),并且由于DE的固有特性,可以欺骗更多类型的网络。结果表明,CIFAR-10测试数据集中68.36%的自然图像和41.22%的ImageNet(ILSVRC 2012)验证图像可以通过仅修改一个像素,73.22%和5.52%的置信度来扰乱至少一个目标类别。

  • 因此,提出的攻击探讨了在极端有限的情况下对对抗机器学习的不同看法,表明当前的DNN也容易受到这种低维攻击。此外,我们还说明了DE(或广泛地说,进化计算)在对抗性机器学习领域的一个重要应用:创建可以有效地生成针对神经网络的低成本对抗性攻击的工具,用于评估鲁棒性。

  • 我们使用少像素攻击有两个主要原因:

  • 1)少像素攻击可以在实践中隐藏修改的效果。据我们所知,之前的论文都不能保证所做的扰动是完全看不见的。减轻这个问题的一个最直接的方法就是使扰动尽可能的小。具体来说,我们提出一个经验解,而不是理论上提出额外的约束或考虑更复杂的扰动成本函数,而是通过严格控制32×32图像中特定的1、3或5个像素中可修改的像素数量,即我们使用像素数作为单位,而不是扰动矢量的长度,以测量扰动强度&

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值