建议收藏!近期值得读的 9 篇「对抗样本」最新论文

在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。

本期我们筛选了 9 篇「对抗样本」领域的最新论文,一起来看看读过这些论文的推荐人的推荐理由与个人评价吧!

本期推荐人:孙裕道,北京邮电大学网络空间安全学院在读博士生,主要研究方向为 GAN 图像生成和人脸,情绪对抗样本生成。

#Adversarial Attack

本文来自清华大学和腾讯 AI Lab。黑盒对抗攻击是所有对抗攻击中难度最高的,因为模型的结构和参数以及训练的数据集都未知,只能通过对 AI 模型进行查询获得信息。标准的 ES(进化策略)算法可以进行黑盒攻击,其中高斯分布作为搜索分布被广泛采用。然而,它可能不够灵活,无法捕捉不同良性样本周围对抗扰动的不同分布。

该论文提出了一个新的策略,通过一个基于条件流的模型将高斯分布变量转换到另一个空间,以增强捕捉良性样本上的对抗扰动的内在分布的能力和灵活性。此外还在一些白盒代理模型的基础上,利用对抗扰动在不同模型间的可传递性,对条件流模型进行预训练。实验结果表明该策略可以同时利用基于查询和基于转移的攻击方法,在有效性和效率上达到令人满意的攻击效果。

* 论文标题:Efficient Black-Box Adversarial Attack Guided by the Distribution of Adversarial Perturbations

* 论文链接:http://www.paperweekly.site/papers/3861

#Adversarial Attack

本文来自丹麦奥尔堡大学。在对抗样本的防御中,神经网络的鲁棒性是一个重要的方向,但是很多研究对鲁棒性的定义不尽相同,缺乏精确的共同基础的鲁棒性概念。

在该论文中,作者提出了一个严格而灵活的框架来定义不同类型的鲁棒性,这有助于解释鲁棒性和泛化之间的相互作用。论文也给出了最小化相应损失函数的有效方法。一个损失是为了增强对抗非流形攻击的鲁棒性,另一个损失是为了提高给定数据分布下的泛化能力。

实验结果表明,与目前最先进的数据增强和正则化技术相比,我们可以在不同的鲁棒性目标下进行有效的训练,获得更高

  • 0
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
近年来,深度学习在计算机视觉、自然语言处理、语音识别等领域取得了显著的成果。然而,研究表明,深度神经网络仍然存在易受到对抗样本攻击的问题。对抗样本是指对原始输入进行微小修改后,使得深度神经网络产生误判或误识别的样本。这些样本可能被恶意用户用于欺诈、违法或破坏性目的。 对抗样本迁移是指将对抗样本从一个神经网络模型转移到另一个模型时产生的误差和误判。在实际应用中,我们经常需要将训练好的模型应用到新的环境中,因此对抗样本迁移问题需要得到充分的解决。 在对抗样本迁移的研究中,主要存在两个挑战:第一个挑战是如何生成对抗样本。目前,已经有很多方法被提出来生成对抗样本,包括基于梯度的方法、优化方法、基于进化算法的方法等。第二个挑战是如何降低对抗样本迁移的影响。为了解决这个问题,一些方法已经被提出来,如训练多个模型、使用对抗训练、使用正则化等方法。 在解决对抗样本迁移问题的过程中,还有一些开放性的问题需要被解决。首先,如何度量对抗样本迁移的影响,目前并没有一个明确的标准。其次,对抗样本攻击是一种不断演化的问题,如何对抗样本攻击进行及时的检测和防御也是一个重要的问题。 综上所述,对抗样本迁移是深度神经网络安全领域的一个重要问题,需要进行深入的研究。未来的研究应该继续探索更加有效的对抗样本生成和对抗样本迁移降低方法,并建立明确的度量标准来评估这些方法的效果。同时,也需要开发更加强大和鲁棒的深度学习模型,以抵御对抗样本攻击的威胁。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值