ImageNet图像分类对抗攻击-方案整理

公众号:DLCV


赛题地址:https://tianchi.aliyun.com/competition/entrance/231761/forum
赛题介绍:按照最大浮动32干扰的话,最高分为5。

方案关键词:
模型ensemble;多尺度ensemble;数据增强。


第一名(Score:4.4)

  1. 在最初开始,从 ImageNet 数据集中挑选出 1000张可以被线下防御模型正确分类的图片,每一张图片分别属于一个类别。在攻击的时候,直接用 TargetLabel 类别对应的图片作为初始化。
  2. 使用前一次提交的对抗图片作为本次训练的初始化。

Code:https://drive.google.com/open?id=1Up1fV-PaiHin3xSqXicsP9yyc1dWUD47

第二名(Score:4.1)

本组的方案类似 M-DI2-FGSM,差别在于噪声添加方式:

  1. 在梯度下降时添加动量,并把当前梯度依无穷范数 L ∞ L_{\infty} L作为归一化处理;文献:Boosting adversarial attacks with momentum

  2. 对三个防御模型的 logits 进行加权求和得到融合的 logits,使用融合 logits 对应的交叉熵损失来进行梯度的求解 文献:Boosting adversarial attacks with momentum

  3. 一定概率对输入图像进行随机的 resize 和 padding 操作 ;
    文献:1. Improving transferability of adversarial examples with input diversity
    文献:2. Mitigating adversarial effects through randomization

  4. 最终的 loss 融合了不同权重的无目标攻击的 loss 和有目标攻击的 loss;

  5. 去除了 FGSM 等攻击方法中用于引导噪声的 sign(),求解梯度时对添加的扰动 δ \delta δ 求梯度(与对输入图像 x 求梯度等价)。

原作者结论:动量、输入变换和融合 logits 对攻击效果的提升非常明显。

  1. 添加动量可以使攻击跳出局部最优,大幅提升对线下模型的攻击成功率和对线上模型的迁移效果;
  2. 对 logits 进行融合比对 loss 进行融合的效果要好,因为 logits 保留了所有类别的分类信息,可以更好地引导攻击的方向;
  3. 对输入进行变换可以使攻击算法无法直接观察到原始输入,减少过拟合,提升样本迁移能力。

本组融合了无目标攻击的 loss 和有目标攻击的 loss,这样可以引导图像远离原始分类,保证在无法成功进行有目标攻击时也可以有很大概率成功进行无目标攻击。除此之外,因为有目标攻击的得分更高,所以对其 loss 赋予了更高的权重。本组的生成对抗样本的使用的 loss 为:
L ( X , y t r u e , y target ; θ ) = 1 y t r u e ⋅ log ⁡ ( softmax ⁡ ( l ( X ; θ ) ) ) − β ⋅ 1 y t a r g e t ⋅ log ⁡ ( softmax ⁡ ( l ( X ; θ ) ) ) L\left(X, y^{true}, y^{\text {target}} ; \theta\right)=\mathbf{1}_{y^{true}} \cdot \log (\operatorname{softmax}(l(X ; \theta)))-\beta \cdot \mathbf{1}_{y^{target}} \cdot \log (\operatorname{softmax}(l(X ; \theta))) L(X,ytrue,ytarget;θ)=1ytruelog(softmax(l(X;θ)))β1ytargetlog(softmax(l(X;θ)))
本组使用无穷范数归一化代替 sign()sign() 噪声,一定程度上可以避免产生局部过大的梯度以及随后引入的高频噪声。本组使用的梯度更新过程为:
g n + 1 = μ ⋅ g n + ∇ δ L ( T ( X + δ ; p ) , y true  , y target  ; θ ) ∥ ∇ δ L ( T ( X + δ ; p ) , y true  , y target  ; θ ) ∥ ∞ g_{n+1}=\mu \cdot g_{n}+\frac{\nabla_{\delta} L\left(T(X+\delta ; p), y^{\text {true }}, y^{\text {target }} ; \theta\right)}{\left\|\nabla_{\delta} L\left(T(X+\delta ; p), y^{\text {true }}, y^{\text {target }} ; \theta\right)\right\|_{\infty}} gn+1=μgn+δL(T(X+δ;p),ytrue ,ytarget ;θ)δL(T(X+δ;p),ytrue ,ytarget ;θ)
最后,本组添加噪声的过程为:
δ n + 1 = C l i p δ ϵ { δ n + α ⋅ g n + 1 } \delta_{n+1} = Clip_{\delta}^{\epsilon} \{ \delta_n + \alpha \cdot g_{n+1} \} δn+1=Clipδϵ{δn+αgn+1}
Code:https://github.com/IDKiro/Attack-ImageNet?spm=5176.12282029.0.0.42813946ZiOCID

第三名(Score:3.98)

Multi-Scale Attack
  1. 实验发现集成图片不同尺寸(Multi-Scale)、水平翻转的损失可以提高性能,损失函数调整为:
    L ( x , y , t a r g e t ) = ∑ s ∈ S ( l ( x s , y , t a r g e t ) + l ( x f l i p s , y , t a r g e t ) ) L(x,y,target) = \sum_{s \in S}(l(x^s,y,target) + l(x^s_{flip},y,target)) L(x,y,target)=sS(l(xs,y,target)+l(xflips,y,target))
    ①取S=(0.8, 1, 1.25),Score = 2.49
    ②取S=(0.74,0.8,1,1.20),Score = 2.8
    ③取S=(0.5, 0.74, 0.8, 1, 1.25, 1.5),Score = 3.29
Ensemble Attack
  1. 以 Multi-Scale 得到的结果作为初始值,集成三个预训练模型再次攻击。集成方式为平均三个模型的输出(logits),即 f ( x ) = 1 3 ∑ i = 1 3 f i ( x ) f(x) = \frac{1}{3} \sum_{i=1}^3f_i(x) f(x)=31i=13fi(x)
  2. 取S=(0.74,1,1.25),Score=3.89。以此为初始值,再取S=(0.8,1,1.36),Score=3.95
  3. 融合(同名图片两两比较,选取对 target 类预测概率最高的图片)上述两组图片,得到最终最优成绩:\mathrm{Score} = 3.98Score=3.98。

Code:https://github.com/Equationliu/Attack-ImageNet

第四名(Score:2.7)

将预训练模型和输入图片放到相应目录后,运行python main.py即可得到两种攻击下的对抗样本,分别耗时五分钟、十分钟左右(GTX 1080Ti)
Code:https://github.com/the-butterfly/simple_attack_for_imagenet

第五名(Score:)

本组的攻击方案来自于论文:Feature Denoising for Improving Adversarial Robustness中的两个模型进行融合,这两个模型是论文中的Resnet152Denoised模型和ResneXt101Denoised模型。此外,本组复现了论文:Barrage of Random Transforms for Adversarially Robust Defense
在算法迭代中本组使用了6个策略:

1.Input Diversity

来自论文《Improving Transferability of Adversarial Examples With Input Diversity》
算法的基本思路是在每次迭代时对图片进行一些小变换。我们在原文变换基础上加多了几种变换(如旋转,翻转)。

2.Momentum

来自论文《Boosting Adversarial Attacks With Momentum》
算法的基本思路是将动量梯度下降的优化方法引入到生成对抗样本的迭代中。

3.对噪声进行高斯模糊

来自论文《Evading Defenses to Transferable Adversarial Examples by Translation-Invariant Attacks》
对这几个鲁棒模型进行定向攻击的难度非常大。分析原因,是因为其中两个采取了去噪方法,另一个采取了巨量随机变换堆叠的方法,都产生了类似(但不是)梯度掩码的现象,导致在对他们进行梯度型攻击时,梯度包含的信息很少,也就是噪声很干净。为了克服这一点,我们使用了一些策略来挖掘更多的噪声。

4.可变步长搜索

在迭代时,计算当前像素点与L无穷范数限制的边界之差,若差越小,则迭代步长越大。实验证明这对增强迁移性和白盒攻击都有效。

5.目标类图像融合

在迭代之前按一定比例融合属于目标类的图片。专门为了增强定向攻击使用。实验证明这对增强迁移性有效。

6.放宽搜索区域

对于定向攻击,我们使用34的eps作为最大扰动限制,对于非定向攻击,我们使用64的eps作为最大扰动限制。实验证明这对白盒攻击有效。

  • 模型:
    本次比赛中主要使用的模型是Facebook所提供的三个Tensorflow框架下的模型以及一个复现论文的模型,四个模型下载链接如下:

  • 代码:

  • 文件处理方式:

    • 因为Facebook提供的原模型联合起来有命名问题,所以需要重新压缩重命名。
    • 解决方案:下载完毕后,使用压缩软件打开,然后解压缩
      新建一个R152文件夹,将R152.npz解压出的所有文件放入这个文件夹中,重新压缩为zip文件,重命名为R152_rename.npz,但是我们的最终方案中不利用此模型。
      新建一个R152_Denoise文件夹,将R152-Denoise.npz解压出的所有文件放入这个文件夹中,重新压缩为zip文件,重命名为R152-Denoise_rename.npz
      新建一个X101_Denoise文件夹,将X101-DenoiseAll解压出的所有文件放入这个文件夹中,重新压缩为zip文件,重命名为X101-DenoiseAll_rename.npz
      在代码中加载以上npz文件,搜索并修改default=’'中单引号内的内容即可。

DLCV

### 回答1: Imagenet-vgg-verydeep-19.mat是一个预训练的深度神经网络模型文件,包含了一个19层的卷积神经网络(CNN)模型,在计算机视觉领域中非常有用。它被称为VGG-19,因为它由两个重复的卷积层阶段组成,每个阶段包含了4个卷积层和2个池化层,加上3个全连接层。此模型是由牛津大学计算机科学系Visual Geometry Group团队开发的,用于2014年ImageNet图像分类竞赛中取得了第二名的成绩。 下载Imagenet-vgg-verydeep-19.mat模型文件可以方便地使用它进行迁移学习和特征提取,将已经训练好的模型用于类似的计算机视觉任务,例如图像分类、物体检测、图像分割等。在许多研究领域,它已经成为使用深度学习进行计算机视觉最常使用的模型之一。 需要注意的是,Imagenet-vgg-verydeep-19.mat是一个很大的文件(约几百MB),下载它可能需要一些耐心和时间,特别是在网络环境较为缓慢的情况下。此外,该模型是使用MATLAB语言编写的,因此如果你想在其他编程语言中使用该模型,需要进行一些额外的工作来将其转化为其他语言所能识别的格式。 ### 回答2: imagenet-vgg-verydeep-19.mat是一个神经网络模型,它是基于VGG网络架构的一个深度神经网络。它是在2014年ILSVRC比赛中,由Visual Geometry Group (VGG)的研究人员提出的一种高效的CNN模型,该模型在“image classification”(图像分类)任务上的表现相当惊人,打破了当时的记录。它在准确性和速度方面表现出色,因此它得到了广泛的应用,成为深度学习领域的研究者和开发者们常用的模型之一。 imagenet-vgg-verydeep-19.mat是该模型的一个预训练权重文件,其中包含了30多万个图像的标识符和与之相应的特征描述符。这些权重可用于快速训练您自己的图片分类器或其他深度学习任务,这比从头开始训练一个完整的神经网络要快得多。您也可以使用这些权重来对一些图像进行分类,并使用它们的特征描述符来进行特征提取和图像检索。 如果您想要使用imagenet-vgg-verydeep-19.mat文件,您需要先下载它并存储到您的本地计算机中。在MATLAB中,您可以使用以下命令来下载该文件: ``` urlwrite('http://www.vlfeat.org/matconvnet/models/imagenet-vgg-verydeep-19.mat', 'imagenet-vgg-verydeep-19.mat'); ``` 下载完成后,您可以将其导入到MATLAB环境中,使用它进行图像分类和特征提取。该文件的大小约为500MB,因此请确保您的计算机具有足够的存储空间和足够的RAM来使用它。 ### 回答3: Imagenet-vgg-verydeep-19.mat是一个预训练的深度神经网络的模型文件,可以用来在计算机视觉领域进行图像分类、目标检测等诸多任务。该模型主要基于VGG网络结构,是一种具有较好性能和广泛应用的深度卷积神经网络。 下载Imagenet-vgg-verydeep-19.mat文件可以帮助研究人员或开发人员更快地开发和实现计算机视觉的应用程序。在某些应用场景下,为了实现对图像的识别或分类,需要大量的数据和计算资源。使用预训练的模型可以节省很多时间和计算资源,同时也可以提高模型的准确度。 目前,Imagenet-vgg-verydeep-19.mat模型已经被广泛应用于图像分类、目标检测和语义分割等领域。可以作为图像识别算法的基础模型,进行相应的改进和优化,从而得到更高的精度和更好的效果。 需要注意的是,使用Imagenet-vgg-verydeep-19.mat文件时,需要具备一定的深度学习算法和编程技能,否则很难实现相关应用。同时,也需要具备一定的数据处理能力,针对不同的应用场景,对数据进行适当的预处理和增强,才能得到更优的模型效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值