Alleviation of Gradient Exploding in GANs: Fake Can Be Real 论文笔记

知识补充

Mode Collapse 模式崩溃

对于 GAN 来讲,我们应该关注的点包括生成样本的质量和生成样本的多样性。其中,模式崩溃就是描述生成样本的多样性不足的问题,即生成的样本大量重复类似,比如我们目标生成0-9十个数字,但我们的生成器仅能生成五个数字,这就是模式崩溃问题。
产生模式崩溃的原因大致可以描述为,源数据的分布通常有间断点,而我们使用的深度神经网络通常只能预测连续分布。因此我们映射的值域很可能仅仅集中在所有连通分支中的某一个连通分支上,这就导致模式崩溃。
如果我们强行覆盖所有的连通分支,则可能覆盖一些间断点之间不该有的区域,即GAN会生成一些没有现实意义的图片。

论文贡献

  1. 解释了 GAN 训练过程中不平衡分布的生成过程。随着训练的进行,由于梯度爆炸导致的恶性循环问题的存在,这种情况会越来越严重。
  2. 证明了梯度爆炸问题可以通过非常相似的 real 和 fake 样例之间的鉴别器结果差异惩罚和梯度爆炸位置的 fake-as-real consideration 来有效的解决。
  3. 提出了一种新的 GAN 训练方法,根据一个训练 mini-batch 中的辨别器输出将一些假样例认定为真(FARGAN),来有效的防止不平衡分布的产生。

相关工作

  1. Instability 方面:梯度惩罚增加连续性、two time-scale update rule、exponential moving averaging
  2. Mode Collapse 方面:使用混合样本作为辨别器的输入、从概率处理和分布熵的角度研究。
  3. 根据[31],生成器中的模式崩溃问题归因于鉴别器中的梯度爆炸。

Unbalanced Generation

理论上讲,辨别器在达到一个全局的均衡时,能够正确辨别的应该为整体的1/2。但实际情况下,辨别器通常将真实的训练数据认为真,生成的数据认为假。 即使他们的分布基本相同。
Definition 1:定义了 δ close pair 以及每个close pair 的overfitting source

在生成数据集逐渐逼近真实数据集的过程中,许多overfitting sources 出现。下面的 proposition 说明了最佳经验辨别器对于所有的 close pairs 不能都给出相同的真假判别。
在这里插入图片描述
从辨别器对于 close pair {x0,y0} 接收到的 y0 的梯度范式生成器可以被计算为:
在这里插入图片描述
当 D(x0)-D(y0) >= ε 成立,且 {x0,y0} 是 close pair 时,y0处的生成器的梯度爆炸,并极度加重对于其他模式的梯度。假样本将沿= x0-y0的方向移动,尤其是 mini batch 中的其他假样本将不会移向相应的模式,从而生成明显的不平衡。
在这里插入图片描述
注:使用服从高斯分布的有限样本训练GAN,并且没有使用梯度惩罚的分布结果,蓝色为真实数据,红色为生成数据。

生成的分布既没有覆盖目标高斯分布,也没有·符合真实样本的分布。

Gradient Alleviation

这一节中,主要介绍了消除梯度爆炸来达到更可靠的生成分布的方法。

Difference Penalization

D0 为最后没有sigmoid function的辨别器。为方便分析,y0点的生成器梯度范数重写为:
在这里插入图片描述
考虑一个场景:x0 在n个真实样本中,是一个在m个生成样本中对于{y1,y2,…,ym0} 等生成样本的 overfitting source。即 {x0, yi}, i = 1, … , m0 为 close pairs。我们将 x0 和 {y1,y2,…,ym0} 的最佳辨别器输出作为感兴趣点。
我们首先考虑惩罚 close pairs 输出差异的 L2 范数。在这里插入图片描述
其中,k为 L2 范式的权重,C1是无关紧要的项。将 D0(x0)标记为 ξ0 将 D0(yi) 标记为 ξi。则兴趣项 f(ξ0, ξ1, … ,ξi)可以重写为:
在这里插入图片描述
Proposition 2
在这里插入图片描述
因此,差异惩罚的权重 k 上升会导致生成器在这个局部范围的梯度范式下降,而 close pairs 的数量上升会导致梯度范式上升。

Gradient penalty
在实际中,找到 close pairs 去进行相应的差异惩罚是困难的。因此我们采用一种 zero-centered 的梯度惩罚来稳定 close pairs 的鉴别器输出。
但这也不够有效,尤其在高维的情况下。

Vicious circle
在 overfitting source x0 周围的梯度爆炸导致许多假样本向 x0 移动,产生更多的 close pairs 导致更严重的梯度爆炸,形成一个恶性循环。这部分解释了GAN训练过程的不稳定性,尤其是在训练的后期,可以看到相似的生成样本。

Fake-as-Real Consideration

基于上述讨论,我们将 m0 个假样例{y1,y2,…,ym0} 当做真的进行考虑,得出下面损失函数:
在这里插入图片描述
其中,λ 为 fake-as-real consideration 的权重。C2为无关紧要项。
在这里插入图片描述
Proposition 3
在这里插入图片描述
局部区域的梯度爆炸问题可以通过 fake-as-real consideration 来消除。理论上,当 fake-as-real 项的权重趋向于无穷时,生成器的梯度范式变为0,完全解决了辨别器失去辨别局部样本的能力问题。实际上,当我们能够使得在minibatch 之中不同梯度可以区分即可,因此我们也不需要将权重设置特别大。

Implementation

在 Fake-As-Real GAN(FARGAN)的设置中,我们设置N个真实样本包含 N0 个 fake-as-real 的假样本,以及 N1 个真样本。对于 fake-as-real 假样本的选取,由于我们希望 fake-as-real 假样本应该在许多 close pairs 存在的地方,因此我们的 Dfake-as-real(即 DFAR)为:
在这里插入图片描述
局部区域内越多close pair 存在,则假样本被选中的概率越高。
此外,我们还添加了对于真样本的 zero-centered 梯度惩罚。
因此FARGAN的总体的损失函数如下。
在这里插入图片描述
在这里插入图片描述

参考文章

  • https://blog.csdn.net/qq_32172681/article/details/99676858
  • http://blog.itpub.net/69946223/viewspace-2658454/

本文仅为个人论文笔记,若理解有误,敬请指出!多谢!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值