论文理解:Defense-GAN

由于首次接触对抗训练方面的内容,在此借着Defense-GAN中的相关内容先对对抗训练相关知识做一个简要的整理。
对抗训练基本说明见https://www.leiphone.com/news/201702/Jpb0uiOt9RTwcB8E.html

对抗攻击大致分为3种:
黑盒攻击:攻击者无权接触到分类模型参数,同时无法接触到分类模型的训练数据集。目前通常采用训练一个攻击目标分类器的替代模型,在其上训练并攻击以找出对抗样本。这些对抗样本往往能够被目标分类器误分类。这也证明了黑盒攻击的可迁移性。替代模型的训练集获得方式:将一小部分数据集送入目标分类器中,获得输出label并对此进行数据增强。
白盒攻击:攻击者能够获得分类模型的所有参数,例如网络结构和权限,防御机制的细节等。攻击模型得到loss函数表达,因而能够将扰动指向某一特定分类类别。
指向特定类别的攻击有Iterative FGSM,JSMA,Deepfool等。
不指向特定类别的攻击有FGSM,RAND+FGSM,CW(目前最强白盒攻击之一,参考见https://zhuanlan.zhihu.com/p/39285664)等。
灰盒攻击:上述两者的折中。攻击者知道网络结构和防御机制,但是不知道具体参数。

对抗防御大致分为3类:
1.调整训练数据使得分类器对攻击更鲁棒,比如用对抗样本进行数据增强。由于对抗样本由攻击产生,显然在攻击策略更换后,这种防御方式将会表现不佳。同时由于gredient masking这种防御方式对白盒攻击的防御效果优于黑盒攻击。
2.对分类器进行防御蒸馏训练。利用

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 6
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值