ICLR2015 | FGSM | 解释并利用对抗样本


论文链接

本文 “Explaining and Harnessing Adversarial Examples” 探讨了机器学习模型中的对抗样本现象,认为神经网络易受其攻击的主因是线性性质,提出快速生成方法(Fast Gradient Sign Method, FGSM),经实验表明对抗训练可正则化模型,还讨论了模型容量、对抗样本泛化性及反驳了一些替代假设,总结了相关发现与影响。


摘要-Abstract

Several machine learning models, including neural networks, consistently misclassify adversarial examples—inputs formed by applying small but intentionally worst-case perturbations to examples from the dataset, such that the perturbed input results in the model outputting an incorrect answer with high confidence. Early attempts at explaining this phenomenon focused on nonlinearity and overfitting. We argue instead that the primary cause of neural networks’ vulnerability to adversarial perturbation is their linear nature. This explanation is supported by new quantitative results while giving the first explanation of the most intriguing fact about them: their generalization across architectures and training sets. Moreover, this view yields a simple and fast method of generating adversarial examples. Using this approach to provide examples for adversarial training, we reduce the test set error of a maxout network on the MNIST dataset.

包括神经网络在内的多种机器学习模型,一直会错误分类对抗样本,即对数据集中的样本施加微小但有意为之的最坏情况扰动而形成的输入,使得受扰动的输入导致模型以高置信度输出错误答案。早期解释这一现象的尝试集中在非线性和过拟合上。我们则认为神经网络易受对抗扰动影响的主要原因是其线性本质。 这一解释得到了新的定量结果的支持,同时首次解释了关于它们的最有趣的事实:它们在不同架构和训练集之间的泛化能力。此外,这一观点产生了一种简单快速的生成对抗样本的方法。 使用这种方法为对抗训练提供样本,我们降低了一个maxout网络在MNIST数据集上的测试集误差。


引言-Introduction

该部分主要介绍了对抗样本的相关背景、已有解释以及本文的核心观点和贡献,具体内容如下:

  1. 对抗样本现象Szegedy等人发现包括先进的神经网络在内的多种机器学习模型易受对抗样本影响。这些对抗样本与正常分类的样本仅有细微差别,但模型会将其错误分类,且不同架构、在不同训练子集上训练的模型常对同一对抗样本误分类,这表明对抗样本揭示了训练算法存在的基本漏洞。
  2. 已有解释及问题:此前有观点认为对抗样本的出现是由于深度神经网络的极端非线性,可能还与模型平均不足、纯监督学习问题的正则化不足有关。但作者认为这些推测不必要,指出线性行为足以导致对抗样本的出现。
  3. 本文贡献:基于线性行为导致对抗样本的观点,作者设计出快速生成对抗样本的方法,使对抗训练具有实用性。同时,作者通过实验证明对抗训练能带来比单纯使用随机失活(dropout)更多的正则化效果,还发现通用的正则化策略对降低模型对对抗样本的脆弱性效果不显著,而采用非线性模型家族(如RBF网络)则可能有效。此外,作者还指出在设计模型时,存在因线性而易于训练和利用非线性效应抵抗对抗扰动之间的权衡。

相关工作-Related Work

该部分主要回顾了与对抗样本相关的前期研究成果,包括神经网络及相关模型在对抗样本方面展现出的多种特性,具体内容如下:

  1. 可靠生成对抗样本的方法Szegedy等人研究表明,Box - constrained L - BFGS能够可靠地找到对抗样本,这为后续研究提供了基础。
  2. 对抗样本的视觉特性:在一些数据集(如ImageNet)上,对抗样本与原始样本极为接近,人眼难以区分其差异,但却能导致模型误分类,这一现象揭示了模型在处理看似相似输入时的脆弱性。
  3. 对抗样本的泛化性:同一对抗样本常被不同架构或在不同训练子集上训练的多种分类器误分类,这表明对抗样本暴露了训练算法的根本性盲点,模型可能并未真正学习到数据背后的本质概念。
  4. 浅层模型的脆弱性:浅层softmax回归模型同样易受对抗样本影响,说明对抗样本问题不仅存在于深度神经网络中,也存在于较为简单的模型结构中。
  5. 对抗训练的正则化效果及局限性:早期研究发现,基于对抗样本的训练可对模型起到一定的正则化作用,但当时由于生成对抗样本需要昂贵的约束优化计算,使得该方法在实际应用中不具实用性,限制了其进一步发展和应用。

对抗样本的线性解释-The Linear Explanation of Adversarial Examples

  1. 线性模型存在对抗样本的原因
    • 在许多问题中,输入特征精度有限,例如数字图像每像素仅用8位,会丢弃动态范围1/255以下的信息。对于分类器,若扰动 η \eta η 各元素小于特征精度,从理性上讲,它对输入 x x x 和对抗输入 x ~ = x + η \tilde{x}=x+\eta x~=x+η 应给出相同分类。
    • 考虑权重向量 w w w 与对抗样本 x ~ \tilde{x} x~ 的点积 w ⊤ x ~ = w ⊤ x + w ⊤ η w^{\top}\tilde{x}=w^{\top}x + w^{\top}\eta wx~=wx+wη,对抗扰动使激活增长 w ⊤ η w^{\top}\eta wη。在 η \eta η 的最大范数约束下,通过令 η = s i g n ( w ) \eta = sign(w) η=sign(w) 可使激活增长最大化。若 w w w n n n 维且权重向量元素平均幅度为 m m m,激活将增长 ϵ m n \epsilon mn ϵmn。由于 ∥ η ∥ ∞ \|\eta\|_{\infty} η 不随问题维度增长,但扰动引起的激活变化可随 n n n 线性增长,在高维问题中,许多微小输入变化可累积成输出的大变化,就像“意外隐写术”,线性模型会专注于与权重最对齐的信号,即便存在其他信号且幅度更大。
  2. 与先前解释的对比
    • 先前解释对抗样本存在时,常假设神经网络具有高度非线性等特性,而本文基于线性的假设更简单,且能解释为何softmax回归也易受对抗样本影响。这表明简单线性模型在输入维度足够高时就会有对抗样本,而非仅神经网络的非线性特性所致。

非线性模型的线性扰动-Linear Pertubation of Non-Linear Models

  1. 生成对抗样本的快速方法
    • 神经网络的线性行为使其难以抵抗线性对抗扰动。许多神经网络(如LSTMs、ReLUs、maxout网络)有意设计为线性方式,以便优化,更非线性的模型(如sigmoid网络)也常处于非饱和、更线性的状态。基于此,线性模型的廉价解析扰动也可能影响神经网络。
    • 对于模型参数 θ \theta θ、输入 x x x、目标 y y y 和成本函数 J ( θ , x , y ) J(\theta, x, y) J(θ,x,y),可通过线性化成本函数得到最优最大范数约束扰动 η = ϵ s i g n ( ∇ x J ( θ , x , y ) ) \eta=\epsilon sign(\nabla_{x}J(\theta, x, y)) η=ϵsign(xJ(θ,x,y)),这就是“快速梯度符号法”生成对抗样本。其所需梯度可通过反向传播高效计算。
  2. 方法的有效性及其他相关方法
    • 该方法能使多种模型可靠地误分类输入,例如在ImageNet上对GoogLeNet的演示,以及在MNIST和CIFAR - 10测试集上对不同模型的实验,都显示了该方法的有效性(如在MNIST上使浅层softmax分类器错误率达99.9%,平均置信度79.3%;在CIFAR - 10上使卷积maxout网络错误率达87.15%,平均错误标签概率96.6%)。
    • 还发现其他简单方法如沿梯度方向小角度旋转 x x x 也能产生对抗样本。这些简单算法能生成误分类样本,支持了对抗样本源于线性的解释,同时这些算法有助于加速对抗训练或分析训练好的网络。

在这里插入图片描述
图1:在ImageNet上对GoogLeNet(Szegedy等人,2014a)应用快速生成对抗样本的演示。通过添加一个难以察觉的小向量,其元素等于成本函数相对于输入的梯度元素的符号,我们可以改变GoogLeNet对图像的分类。这里我们的 ϵ \epsilon ϵ 值为0.007,对应于GoogLeNet转换为实数后8位图像编码的最小位的大小。


线性模型与权重衰减的对抗训练-Adversarial Training of Linear Models Versus Weight Decay

  1. 逻辑回归中的对抗训练与权重衰减对比
    • 以逻辑回归为例,其训练目标是对标签 y ∈ { − 1 , 1 } y\in\{-1,1\} y{1,1} 进行预测,概率为 P ( y = 1 ) = σ ( w ⊤ x + b ) P(y = 1)=\sigma(w^{\top}x + b) P(y=1)=σ(wx+b),训练通过梯度下降最小化 E x , y ∼ p d ζ ( − y ( w ⊤ x + b ) ) E_{x,y\sim p_{d}} \zeta(-y(w^{\top}x + b)) Ex,ypdζ(y(wx+b)) ζ ( z ) = log ⁡ ( 1 + exp ⁡ ( z ) ) \zeta(z)=\log(1+\exp(z)) ζ(z)=log(1+exp(z)) 为softplus函数)。
    • 对于逻辑回归,快速梯度符号法是精确的,其对抗版本是最小化 E x , y ∼ p d ζ ( y ( ϵ ∥ w ∥ 1 − w ⊤ x − b ) ) E_{x,y\sim p_{d}} \zeta(y(\epsilon\|w\|_{1}-w^{\top}x - b)) Ex,ypdζ(y(ϵw1wxb))。这与 L 1 L^{1} L1 正则化有些相似,但有重要区别, L 1 L^{1} L1 惩罚在训练时从模型激活中减去,而不是加到训练成本上,且在模型预测足够自信饱和时,惩罚可能消失;在欠拟合情况下,对抗训练可能加剧欠拟合。所以 L 1 L^{1} L1 权重衰减比对抗训练更“悲观”,因为它在模型有良好边界时不能像对抗训练那样调整。
  2. 多类softmax回归及深层网络中的情况
    • 在多类softmax回归中, L 1 L^{1} L1 权重衰减更悲观,因为它将softmax的每个输出视为独立可扰动的,而实际上通常找不到与所有类权重向量对齐的单个 η \eta η,在深层网络中这种高估扰动损害的情况更严重。因此,使用 L 1 L^{1} L1 权重衰减时,需用比特征精度 ϵ \epsilon ϵ 更小的系数,如在MNIST上训练maxout网络, ϵ = 0.25 \epsilon = 0.25 ϵ=0.25 的对抗训练效果好,但 L 1 L^{1} L1 权重衰减系数为0.0025就过大,导致模型在训练集上出错率超5%,更小系数虽能训练但无正则化效果。这表明 L 1 L^{1} L1 权重衰减因高估对抗扰动损害,在实际应用中需要谨慎选择系数以平衡模型性能。

在这里插入图片描述
图2:应用于逻辑回归的快速梯度符号法(在此情况下它不是近似,而是在最大范数框内真正最具破坏性的对抗样本)。
a) 在MNIST上训练的逻辑回归模型的权重。
b) 在MNIST上训练的逻辑回归模型权重的符号。这是最优扰动。尽管模型容量低但拟合良好,人类观察者很难看出这种扰动与3和7之间的关系有任何关联。
c) MNIST中的3和7。在此示例中,逻辑回归模型在3与7的区分任务上错误率为1.6%。
d) 对于 ϵ = 0.25 \epsilon = 0.25 ϵ=0.25 的逻辑回归模型的快速梯度符号对抗样本。在此类样本上,逻辑回归模型的错误率为99%.


深度网络的对抗训练-Adversarial Training Of Deep Networks

  1. 深度网络对抗训练的有效性
    • 深度网络虽因易受对抗样本攻击而受批评,但与浅层线性模型不同,深度网络至少能表示抵抗对抗扰动的函数(依据通用逼近定理,有至少一个隐藏层且隐藏单元足够多的神经网络可任意精度逼近任何函数)。不过标准监督训练未指定所选函数需抵抗对抗样本,这需在训练过程中体现。
    • 基于快速梯度符号法的对抗目标函数训练是有效的正则化方法,如 J ~ ( θ , x , y ) = α J ( θ , x , y ) + ( 1 − α ) J ( θ , x + ϵ s i g n ( ∇ x J ( θ , x , y ) ) ) \tilde{J}(\theta, x, y)=\alpha J(\theta, x, y)+(1 - \alpha)J(\theta, x+\epsilon sign(\nabla_{x}J(\theta, x, y))) J~(θ,x,y)=αJ(θ,x,y)+(1α)J(θ,x+ϵsign(xJ(θ,x,y)))(实验中 α = 0.5 \alpha = 0.5 α=0.5),该方法通过持续更新对抗样本,使模型能抵抗当前版本的扰动。以maxout网络为例,结合对抗训练和dropout,可将错误率从无对抗训练的0.94%降至0.84%。
  2. 对抗训练中的相关问题及解决方法
    • 训练中发现对抗训练在训练集上无法达到零错误率,解决方法是增大模型规模(每层用1600个单元而非原240个),同时结合早期停止策略(基于对抗验证集错误率),多次训练试验后,测试集错误率可达0.782%(与其他方法结果相近),且模型对对抗样本的抵抗力增强(错误率从89.4%降至17.9%),但误分类时预测仍高度自信(平均置信度81.4%),同时模型权重变得更局部化和可解释。
  3. 不同扰动方式及层的比较
    • 比较了不同的扰动方式(如基于快速梯度符号法的扰动、旋转或添加缩放梯度的扰动)和扰动层(输入层或隐藏层)的效果。发现基于快速梯度符号法的扰动,对激活无界的隐藏单元网络,扰动输入层效果更好;对饱和模型(如Rust模型),扰动输入层和隐藏层效果相当;旋转隐藏层的扰动可解决无界激活增长问题,但正则化效果不如输入层的加法扰动。还指出对抗训练在模型有能力学习抵抗对抗样本时才有用,对最后一层(线性 - sigmoid或线性 - softmax层)应用对抗扰动可能导致欠拟合,实验中最佳结果不涉及对最后隐藏层的扰动。
  4. 与其他正则化方法对比
    • 对抗训练可视为在噪声输入中进行困难样本挖掘,而添加零均值零协方差噪声(如在 ϵ \epsilon ϵ 最大范数框内训练或采样)在防止对抗样本方面效率低下,因为噪声在很多情况下无影响甚至降低目标函数值。实验中用随机添加 ± ϵ \pm\epsilon ±ϵ U ( − ϵ , ϵ ) U(-\epsilon, \epsilon) U(ϵ,ϵ) 噪声训练maxout网络,在面对快速梯度符号法的对抗样本时错误率较高(分别为86.2%和90.4%),进一步证明对抗训练的有效性。同时,基于快速梯度符号法的对抗目标函数的梯度下降无法让模型预测对手对参数变化的反应,而可微的扰动过程(如旋转或添加缩放梯度)虽能考虑对手反应,但正则化效果不如快速梯度符号法。

在这里插入图片描述
图3:在MNIST上训练的maxout网络的权重可视化。每一行显示单个maxout单元的滤波器。左)未经对抗训练的模型。右)经过对抗训练的模型。


不同类型的模型容量-Different Kinds of Model Capacity

  1. 高维空间与对抗样本的关系
    • 对抗样本的存在与高维空间有关,人类直觉在理解高维空间时存在困难,因为我们生活在三维空间,难以想象小扰动在高维空间中累积产生大影响,这使得对抗样本的存在看似反直觉。
  2. 模型容量与对抗样本的关系
    • 低容量模型并不一定意味着不能做出多种自信预测,如浅层RBF网络,其形式为 p ( y = 1 ∣ x ) = exp ⁡ ( ( x − μ ) ⊤ β ( x − μ ) ) p(y = 1|x)=\exp((x - \mu)^{\top}\beta(x - \mu)) p(y=1∣x)=exp((xμ)β(xμ)),仅在 μ \mu μ 附近能自信预测正类,其他地方预测能力有限(默认预测类不存在或低置信度预测)。
    • RBF网络自然对对抗样本有一定抵抗性,在MNIST数据集上,使用快速梯度符号法生成的对抗样本( ϵ = 0.25 \epsilon = 0.25 ϵ=0.25),浅层RBF网络错误率为55.4%,但错误示例上的置信度仅为1.2%,而在干净测试示例上平均置信度为60.6%,说明它在不确定时能降低置信度。不过RBF单位对显著变换不具有不变性,导致其泛化能力差。
    • 线性单位和RBF单位可视为精度 - 召回权衡曲线上的不同点,线性单位通过对特定方向的所有输入响应实现高召回,但在不熟悉情况可能因响应过强导致低精度;RBF单位仅对空间中特定点响应实现高精度,但牺牲了召回率。受此启发,探索了含二次单元的模型(如深RBF网络),但发现用随机梯度下降训练时,具有足够二次抑制以抵抗对抗扰动的模型训练集错误率高,训练困难。

为什么对抗样本有泛化性-Why Do Adversarial Examples Generalize?

  1. 对抗样本泛化现象
    • 对抗样本的一个有趣现象是,为一个模型生成的对抗样本常被其他模型误分类,即使模型架构不同或在不相交训练集上训练,且不同模型对对抗样本的分类常一致,这一行为难以用基于极端非线性和过拟合的解释来说明,因为按这些解释,不同的过参数化非线性模型不应一致地标记分布外的点。
  2. 线性观点下的解释
    • 从线性角度看,对抗样本出现在广泛子空间中,只要扰动方向 η \eta η 与成本函数梯度的点积为正且 ϵ \epsilon ϵ 足够大,对抗样本就会出现(如图4所示,通过追踪不同 ϵ \epsilon ϵ 值,可见对抗样本在由快速梯度符号法定义的一维子空间的连续区域出现,而非精细的小区域),这解释了对抗样本的丰富性以及为何一个被一个分类器误分类的样本有较高概率被另一个分类器误分类。
  3. 模型学习相似函数导致泛化
    • 假设用当前方法训练的神经网络类似于在相同训练集上学习的线性分类器,由于机器学习算法的泛化能力,在不同训练子集上训练时能学习到近似的分类权重,这导致了对抗样本在不同模型间的稳定性,即不同模型学习到相似函数,从而使对抗样本的行为在不同模型间具有一致性。
  4. 实验验证假设
    • 通过在深度maxout网络上生成对抗样本,然后用浅层softmax网络和浅层RBF网络对这些样本分类来测试上述假设。结果发现,在maxout网络误分类的样本上,RBF网络预测maxout网络分类的准确率仅为16.0%,softmax分类器准确率为54.6%;排除两个模型都犯错的情况,softmax回归预测maxout分类的准确率为84.6%,RBF网络为54.3%,而RBF网络预测softmax回归分类的准确率为53.6%,表明RBF网络自身行为有较强线性成分,说明假设虽不能解释所有模型错误或跨模型泛化的错误,但很大一部分与线性行为是跨模型泛化的主要原因一致。

替代假设-Alternative Hypotheses

  1. 生成式训练的假设
    • 一种假设认为生成式训练可对训练过程提供更多约束,或使模型学会区分“真实”与“虚假”数据,从而仅对“真实”数据有信心。通过对MP - DBM模型(其推理过程可微且在MNIST上分类准确率达0.88%)的测试,发现该模型仍易受对抗样本影响(使用 ϵ = 0.25 \epsilon = 0.25 ϵ=0.25 时,对抗样本错误率达97.5%),这表明仅生成式训练本身不足以使模型抵抗对抗样本,虽然不排除其他形式的生成式训练可能有抵抗效果。
  2. 模型平均的假设
    • 另一种假设是单个模型虽有奇特问题,但多个模型平均可消除对抗样本的影响。为此训练了12个maxout网络的集成模型,每个网络用不同随机数种子初始化权重、生成dropout掩码和选择小批量数据进行随机梯度下降。结果发现,用 ϵ = 0.25 \epsilon = 0.25 ϵ=0.25 设计扰动整个集成模型的对抗样本时,错误率为91.1%;仅扰动集成中一个成员时,错误率降至87.9%,表明集成模型仅提供有限的对抗扰动抵抗能力,反驳了该假设。

在这里插入图片描述
图4:通过追踪不同的 ϵ \epsilon ϵ 值,我们可以看到,只要方向正确,对于几乎任何足够大的 ϵ \epsilon ϵ 值,对抗样本都会可靠地出现。正确分类仅发生在数据中 x x x 出现的薄流形上。 R n \mathbb{R}^{n} Rn 的大部分由对抗样本和垃圾类样本组成(见附录)。此图是由一个未经对抗训练的maxout网络生成的。
左)当我们在单个输入示例上改变 ϵ \epsilon ϵ 时,显示10个MNIST类中每个类到softmax层的参数的图。正确类别是4。我们看到每个类的未归一化对数概率与 ϵ \epsilon ϵ 明显分段线性,并且错误分类在较宽的 ϵ \epsilon ϵ 值区域内是稳定的。此外,当我们将 ϵ \epsilon ϵ 增加到足以进入垃圾输入区域时,预测变得非常极端。
右)用于生成曲线的输入(左上角 = 负 ϵ \epsilon ϵ,右下角 = 正 ϵ \epsilon ϵ,黄色框表示正确分类的输入)。


总结与讨论-Summary And Discussion

  1. 主要发现总结
    • 对抗样本源于高维点积,是模型过于线性而不是非线性所致;其在不同模型间的泛化可解释为对抗扰动与模型权重向量高度对齐,且不同模型学习相似任务时学到相似函数,扰动方向比具体空间点更重要,对抗扰动在不同干净样本间具有泛化性。
    • 引入了快速生成对抗样本的方法,证明对抗训练可实现比dropout更强的正则化效果,而 L 1 L^{1} L1 权重衰减和添加噪声等简单正则化方法无法达到此效果。
    • 容易优化的模型也容易被扰动,线性模型无法抵抗对抗扰动,只有具有隐藏层(适用通用逼近定理)的结构应训练以抵抗对抗扰动;RBF网络对对抗样本有抵抗性,而训练建模输入分布的模型或集成模型对对抗样本不具抵抗力。
  2. 对模型理解与优化的启示
    • 基于梯度的优化是现代AI的主力,但对抗样本的存在表明,能解释训练数据或正确标记测试数据不意味着模型真正理解任务,其线性响应在数据分布外的点过于自信且常错误。虽然可通过对抗训练部分纠正,但也可认为当前模型家族存在固有缺陷,容易优化的代价是易被误导,这促使开发能训练行为更局部稳定模型的优化程序。
  3. 附录中的相关观察(关于垃圾类样本)
    • 垃圾类样本普遍且易生成,浅层线性模型对此不具抵抗力,RBF网络则有抵抗力。传统减少对垃圾输入脆弱性的方法是在模型中引入额外代表垃圾类的常数输出。
    • 实验表明优化算法可能过度复杂(如Nguyen等人在生成欺骗图像时),简单方法(如从高斯样本添加梯度符号步)即可找到高置信度垃圾类假阳性样本。虽然可训练模型对高斯垃圾样本零错误率,但对测试集错误率无显著降低。这表明线性部分构建的模型在处理随机输入时易出错,仅在包含训练数据的薄流形上行为合理。

附录:垃圾类样本-Rubbish Class Examples

  1. 垃圾类样本概念及传统处理方法
    • 垃圾类样本是人类认为不属于训练集中任何类别的退化输入,在多类别分类中,希望模型对这类样本输出低概率或高熵分布以避免误分类(如在单独二分类器中输出接近零概率,在多项式分布中输出高熵分布)。传统处理方法是在模型中引入额外代表垃圾类的常数输出。
  2. 不同模型对垃圾类样本的处理结果
    • 在MNIST和CIFAR - 10数据集上的实验表明,不同模型对垃圾类样本处理表现不同。例如,在MNIST上,朴素训练的maxout网络(顶部为softmax层)对高斯垃圾样本错误率达98.35%,平均置信度92.8%;将顶部改为独立sigmoid后错误率降至68%,平均置信度87.9%。在CIFAR - 10上,卷积maxout网络错误率为93.4%,平均置信度84.4%。浅层线性模型(如softmax回归模型)也有类似问题,错误率为59.8%,平均置信度70.8%。而RBF网络对垃圾类样本错误率为0%。
  3. 生成特定类欺骗图像的方法及效果
    • Nguyen等人关注生成特定类的欺骗图像,这比单纯找模型误分类为任意类的垃圾样本更难,且上述方法生成的垃圾样本在类别分布上有偏(如MNIST中maxout网络误分类多为5s,CIFAR - 10中卷积网络误分类多为青蛙)。本文提出通过向高斯样本 x x x 添加 ϵ ∇ x p ( y = i ∣ x ) \epsilon\nabla_{x}p(y = i|x) ϵxp(y=ix) 来生成分类为 i i i 类的欺骗图像,在CIFAR - 10上对不同类成功率不同(如青蛙和卡车100%成功,飞机成功率为24.7%,平均成功率75.3%),且生成特定类成功率可能随数据集类别增多而降低。实验还表明可训练maxout网络对高斯垃圾样本零错误率,但这对其干净样本分类能力无显著提升,进一步说明线性模型在处理随机输入时的问题,即仅在训练数据所在薄流形上表现合理,对随机输入易出错。

在这里插入图片描述
图5:为在CIFAR - 10上训练的卷积网络随机生成的欺骗图像。这些示例是通过从各向同性高斯分布中抽取一个样本,然后在增加“飞机”类概率的方向上采取梯度符号步骤生成的。黄色框表示成功欺骗模型使其以至少50%的置信度相信飞机存在的样本。在CIFAR - 10上,“飞机”是最难构建欺骗图像的类别,因此此图代表了成功率方面的最坏情况。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

四口鲸鱼爱吃盐

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值