作者:
Lilian Weng
编译:Bot
本文解释了生成对抗网络(GAN)背后的数学原理及其难以训练的原因,并指出Wasserstein GAN是通过测量两个概率分部之间的平滑度来改进GAN训练的。
如今,生成对抗网络(GAN)已经取得了不少大型成果,它可以复制真实世界的丰富内容,如图像、语言和音乐等。它受博弈论启发:两个模型,一个生成器,一个判别器,两者在相互竞争的同时又相互扶持、共同进步。但是训练GAN并不是一件容易的事,因为自Ian Goodfellow提出这个概念以来,它就一直存在训练不稳定、容易崩溃的问题。
在这里,我想介绍一下GAN背后的数学原理及其难以训练的原因,并引入2017年FAIR提出的Wasserstein GAN,谈谈它是怎么在数学上实现突破性改进的。
KL散度和JS散度
生成对抗网络(GAN)
D的最佳值
什么是全局最优
损失函数代表什么
GAN的问题
很难达成纳什均衡
低维支持
消失的渐变
模式崩溃
缺乏一个适当的评估指标
改进GAN的训练
Wasserstein GAN(WGAN)
什么是Wasserstein距离
为什么Wasserstein比JS、KL发散更好
把Wasserstein距离作为GAN的损失函数
示例:用GAN生成新的宠物小精灵(pokemon)
参考文献
KL散度和JS散度
在开始介绍GAN之前,我们先来回顾这两个描述概率分布差异的概念:KL散度和JS散度