Note-Adversarial Examples Are a Natural Consequence of Test Error in Noise

Content

这篇论文主要是来探究adversarial robustness和corruption robustness的关系。

主旨句:Improving adversarial robustness should go hand in hand with improving performance in the presence of more general and realistic image corruptions.

三种训练方式:

  • naturally trained
  • adversarially trained
  • with Gaussian data augmentation

第三部分:

  • 交代了一下如何表示corruption robustness和adversarial robustness。
  • 交代了论文中的模型是如何训练得到的。

第四部分:

  • 从线性模型开始谈起,探索两类鲁棒性之间的关系
  • 从线性模型扩展到神经网络,探究 σ \sigma σ和d的关系。( σ \sigma σ代表corruption robustness, σ \sigma σ越大表示模型的corruption robustness越强;d代表adversarial robustness)

第五部分:

  • 寻找对抗鲁棒性的上界

Reference

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值