对抗样本(Adversarial Examples)
文章平均质量分 90
turb_csdn
这个作者很懒,什么都没留下…
展开
-
Towards Evaluating the Robustness of Neural Networks(翻译,侵删)
Towards Evaluating the Robustness of Neural Networks面向评估神经网络的鲁棒性论文地址 https://ieeexplore.ieee.org/abstract/document/7958570摘要深度网络对于大多数的机器学习任务提供了顶尖的结果。不幸的是,深度网络容易受到对抗样本攻击:给定一个输入xxx和任何类别ttt,有可能找到一个新的输入x′x^\primex′,与xxx相似但是分类为ttt。这使得在安全的领域应用神经网络变得困难。防御蒸馏时最原创 2021-02-19 10:57:36 · 1172 阅读 · 0 评论 -
Universal adversarial perturbations(翻译,侵删)
Universal adversarial perturbations(通用对抗扰动)原文链接 https://www.researchgate.net/publication/309460742_Universal_adversarial_perturbations摘要考虑到一个顶尖的深度神经网络分类器,我们展示了一个通用(图像不可知)和非常小的扰动向量的存在,它会英气自然的图片,以一个很高的置信度被误分类。我们提出了一个系统的算法来计算通用扰动,来展示顶尖的深度神经网络对于这类扰动的高度的脆弱性,原创 2021-02-10 11:08:42 · 871 阅读 · 0 评论 -
Boosting Adversarial Attacks with Momentum (翻译,侵删)
Boosting Adversarial Attacks with Momentum用动量增强对抗攻击摘要深度神经网络对于对抗样本是脆弱的,对这些孙发提出了安全的担忧,因为潜在的严重的威胁。对抗样本作为一个重要的代理来评估深度学习模型的鲁棒性,在他们应用之前。然而,大多数存在对抗攻击只能欺骗一个黑盒模型以一个极低的成功率。为了解决这个问题,我们提出了一个更加广的类别,基于动量的迭代算法来增强对抗攻击。通过将动量项集成到攻击的迭代过程中。我们的方法可以稳定更新的方向,导致更具有迁移性的样本。为了进一步改原创 2021-01-26 22:48:10 · 691 阅读 · 0 评论 -
Evading Defenses to Transferable Adversarial Examples by Translation-Invariant Attacks (翻译,侵删)
Evading Defenses to Transferable Adversarial Examples by Translation-Invariant Attacks利用平移不变攻击规避针对迁移性对抗样本的防御摘要深度神经网络对对抗样本具有脆弱性,通过添加不可察觉的扰动误导分类器。一个有趣的性质是他们的好的迁移性,是的在现实世界中很容易的进行黑盒攻击。由于对抗攻击的威胁,很多的方法被提出来改善鲁棒性。几个顶尖的防御被证明可以对于迁移样本样本具有鲁棒性。在这篇文章中,我们提出了平移不变性攻击方法来原创 2021-01-20 19:39:00 · 392 阅读 · 0 评论 -
SKIP CONNECTIONS MATTER: ON THE TRANSFERABILITY OF ADVERSARIAL EXAMPLES GENERATED WITH RESNETS 翻译,侵删
SKIP CONNECTIONS MATTER: ON THE TRANSFERABILITY OF ADVERSARIAL EXAMPLES GENERATED WITH RESNETS (跳跃连接的重要性,论使用ResNets生成的对抗样本的迁移性)摘要跳跃连接是当前顶尖的深度神经网络的一个必不可少的重要的组成部分,例如:ResNet, wideResNet, DenseNet, ResNeXt。尽管他们在建立更加深沉的和更加有力的DNNs的巨大的成功,我们在这篇文章中确定了一个令人惊讶的安全的威胁原创 2021-01-18 16:52:12 · 502 阅读 · 0 评论 -
NESTEROV ACCELERATED GRADIENT AND SCALE INVARIANCE FOR ADVERSARIAL ATTACKS (翻译,侵删)
NESTEROV ACCELERATED GRADIENT AND SCALEINVARIANCE FOR ADVERSARIAL ATTACKS(Nesterov 加速梯度和缩放不变性攻击)摘要深度学习模型对于在良性输入的运用人类不可察觉的扰动所构造的对抗样本具有脆弱性。然而,在黑盒设置下,大多数已经存在的攻击攻击其他防御模型时,迁移性不足。在这篇文章中,从生成对抗样本作为一个优化的过程,我们提出了两个新的方法来改善对抗样本的迁移性,命名为 **Nesterov Iterative Fast Gra原创 2021-01-15 16:01:38 · 1039 阅读 · 0 评论 -
Improving Transferability of Adversarial Examples with Input Diversity (翻译,侵删)
Improving Transferability of Adversarial Examples with Input Diversity (使用输入多样性改善对抗样本的迁移性)翻译摘要尽管CNN在各种视觉任务上都取得了顶尖的表现,但是他们对于对抗样本表现脆弱性—通过先干净图片添加人眼不可察觉的扰动构造。然而,许多对抗攻击只是在黑盒设置的条件下,取得了相对低的成功率,这里攻击者不知道模型的结构和参数。为此目的,我们提出了通过构造多样性输入模式来提高对抗样本的迁移性。不仅仅用原始的图片生成对抗样本,我们原创 2021-01-13 14:06:10 · 1328 阅读 · 1 评论