One Pixel Attack(对抗攻击) —— 使用差分进化算法寻找最优解

本文介绍了一种名为One Pixel Attack的对抗攻击方法,它仅通过改变图像中一个像素点的值就能误导深度神经网络。与传统攻击相比,这种方法更难被察觉。文章详细讲解了Adversarial Attack的概念,回顾了advGAN的工作原理,并重点阐述了如何运用差分进化算法在限制L0范数(仅改变一个像素)的情况下寻找最优的对抗样本。通过差分进化算法,可以在较少的模型评估次数下找到全局最优解,且不需要梯度信息。
摘要由CSDN通过智能技术生成

论文原文:One pixel attack for fooling deep neural networks

论文链接:https://arxiv.org/abs/1710.08864
代码:https://github.com/Hyperparticle/one-pixel-attack-keras

Adversarial Attack
在这里插入图片描述
对抗攻击不过多阐述,如上图所示,在原图像x0上加上一些perturbations得到x`,可以误导识别网络的识别结果。

AdvGAN

论文链接:https://arxiv.org/abs/1801.02610
在这里插入图片描述
简单回顾一下对抗样本领域经典之作——advGAN,将origin image x放入生成器g产生perturbations即g(x),产生的perturbations加在x上从而产生对抗样本用来误导识别网络。

在实际的训练过程中:
    advGAN的损失函数:
                

FGSM(Fast Gradient Sign Method)算法是一种快速生成对抗样本的方法,它是基于对原始数据的梯度信息进行计算,通过改变输入数据中的每个像素点的值,来产生对抗样本。由于该算法是基于单次梯度计算,因此生成对抗样本的速度非常快,但是对抗样本的扰动较大,攻击成功率较高。因此, FGSM算法在攻击中的效果较好。 DeepFool算法是一种基于线性分类器的迭代最小化扰动的方法。它通过在决策边界处找到最小的扰动来生成对抗样本。该算法可以产生非常小的扰动,但是需要迭代计算,因此速度较慢。与FGSM算法相比,DeepFool算法的攻击效果较为稳定,但需要更多的计算资源。 L-BFGS算法是一种基于梯度下降的优化算法,它可以用来生成对抗样本。该算法可以产生较小的扰动,但需要迭代计算,因此速度较慢。与FGSM算法相比,L-BFGS算法的攻击效果较为稳定,但需要更多的计算资源。 One Pixel攻击算法是一种通过改变图像中少量像素的值来生成对抗样本的方法。由于仅改变少量像素的值,因此One Pixel攻击算法可以产生非常小的扰动。但是,这种方法易受到图像旋转、缩放等操作的影响,因此对抗样本的鲁棒性较差。 因此,以上四种攻击算法的攻击效果不同是由于它们使用不同的方法来产生对抗样本,每种方法都有其优缺点,需要根据具体应用场景进行选择。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值