Improving Adversarial Robustness Using Proxy Distributions

Sehwag V., Mahloujifar S., Handina T., Dai S., Xiang C., Chiang M. and Mittal P. Improving adversarial robustness using proxy Distributions. arXiv preprint arXiv: 2104.09425, 2021.

本文利用GAN生成数据, 并利用这些数据进行对抗训练, 无论是自然精度还是鲁棒性都获得了极大的提升.
在相同的网络结构且不使用额外的真实数据的前提下, 该方法在RobustBench上取得最好的成绩.

主要内容

proxy distribution

本文首先给出了一个理论分析, 即在proxy distribution上取得的鲁棒性和与真实分布之间的差距有多大.

首先给出average robustness的定义:

R o b d ( h , D ) = E ( x , y ) ∼ D [ inf ⁡ h ( x ′ ) ≠ y d ( x ′ , x ) ] , \mathrm{Rob}_d (h, D) = \mathbb{E}_{(x, y)\sim D} [\inf_{h(x') \not =y} d(x', x)], Robd(h,D)=E(x,y)D[h(x)=yinfd(x,x)],
其中 h h h是分类器, D D D是数据的分布, d d d是一个距离, 比如常见的 ℓ ∞ \ell_{\infty} . 该指标衡量的就是分类器 h h h在数据分布 D D D上的平均鲁棒性.

因为, 我们实际上可获得的是有限的数据集 S S S, S S S D D D中采样得到, 故我们更关心的实际上:
E S ∼ D ,   h ← L ( S ) [ R o b d ( h , D ) ] , \mathop{\mathbb{E}} \limits_{S \sim D, \: h \leftarrow L(S)} [\mathrm{Rob}_d (h, D)], SD,hL(S)E[Robd(h,D)],
其中 L L L是某种训练算法, 比如常见的对抗训练.
由于:

R o b d ( h , D ) = ( R o b d ( h , D ) − R o b d ( h , D ~ ) ) + ( R o b d ( h , D ~ ) − R o b d ( h , S ^ ) ) + R o b d ( h , S ^ ) . \mathrm{Rob}_d (h, D) = (\mathrm{Rob}_d (h, D)-\mathrm{Rob}_d (h, \tilde{D})) + (\mathrm{Rob}_d (h, \tilde{D}) - \mathrm{Rob}_d (h, \hat{S})) + \mathrm{Rob}_d (h, \hat{S}). Robd(h,D)=(Robd(h,D)Robd(h,D~))+(Robd(h,D~)Robd(h,S^))+Robd(h,S^).
其中 D ~ \tilde{D} D~是另一个分布(这篇文章里就是proxy distribution, 用GAN拟合的分布), S ^ \hat{S} S^则是从 D ~ \tilde{D} D~中采样的数据集.

E S ∼ D ~ n ,   h ← L ( S ) [ R o b d ( h , D ) ] \mathop{\mathbb{E}} \limits_{S \sim \tilde{D}^n, \: h \leftarrow L(S)} [\mathrm{Rob}_d (h, D)] SD~n,hL(S)E[Robd(h,D)]
进一步, 有如下的分解(注意 S ∼ D ~ n S \sim \tilde{D}^n SD~n表示 S S S是从拟合的分布中采样的, 并且有 n n n个样本.):

image-20210505113544306

即, 分成了三部分:

  1. Empirical robustness: 即在训练集上的鲁棒性;
  2. Generalization penalty: 即训练集上的鲁棒性和在整个拟合的数据分布上的鲁棒性的差距;
  3. Distribution-shift penalty: 即与真实分布上鲁棒性的差距.

前两项已经有别的工作研究了, 本文研究的是, 在拟合分布上的鲁棒性和真实分布上的乱不能更新的差距到底有多少(注意都是在拟合数据集上训练的 h h h).

首先作者用wasserstein 散度定义两个分布的距离:

image-20210505114330947

接着给出定理1:

image-20210505114346639

定理1的意义在于, 其说明只要我们拟合的分布足够好, 那么鲁棒性的差距就能足够小, 这结果与分类器 h h h无关!

作者还给出了一些推论, 和定理3说明上面的界是紧的, 但我感觉意义不大, 这里就不多赘述了.

如何利用构造的数据

训练的目标是很简洁的:

min ⁡ θ   [ γ ⋅ E ( x , y ) ∼ D [ L a d v ( θ , x , y ) ] + ( 1 − γ ) ⋅ L a d v E ( x , y ) [ ∼ D ~ ( θ , x , y ) ] ] . \min_{\theta} \: [\gamma \cdot \mathbb{E}_{(x, y)\sim D} [ \mathcal{L}_{adv} (\theta, x, y)] + (1 - \gamma) \cdot \mathcal{L}_{adv}\mathbb{E}_{(x,y)[\sim \tilde{D}}(\theta, x, y)]]. θmin[γE(x,y)D[Ladv(θ,x,y)]+(1γ)LadvE(x,y)[D~(θ,x,y)]].

前一项就是在真实数据上进行对抗训练, 后者就是在构造的数据上进行对抗训练.

伪造的数据集是这样构建的:

  1. 用DDPM模型拟合CIFAR-10的训练集的分布;
  2. 利用DDPM生成无标签数据 { x } \{x\} {x};
  3. 利用LaNet和SplitNet对数据预测标签 { y 1 } \{y_1\} {y1}, { y 2 } \{y_2\} {y2};
  4. 去掉 y 1 ≠ y 2 y_1 \not = y_2 y1=y2的数据, 去掉二者confidence均小于90%的数据.

作者总共生成了6M的数据, 在训练的时候, 每个batch, 真实的和虚假的数据的比例是1:1.

作者在验证鲁棒性上进行了实验, 这里不多赘述.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值