GAN-QP 写到一半发现关于 WGAN 以及它相关约束部分之前没有完全读懂,需要重读,那顺手也把笔记给谢了吧
WGAN 在之前阅读的背景是 GAN 在许多条件下有比较严重的不稳定性,在寻找解决方案的过程中发现了 WGAN 的文章,当时对这篇文章的理解为它提出了一种新的散度衡量函数,使用 W 距离,简洁明了,解决了无重叠概率分布情况下概率的衡量问题,对于相关约束没有深刻的理解,这次带着对于约束的疑问重新读这篇文章。
1)为什么约束是对于判别器的
2)约束的原因
介绍
本文解决的是非监督学习的问题。首先,何为学习概率分布呢?最经典的解释是学习到一种概率密度函数,通常通过一系列的参数构造概率密度函数 P,然后通过调整参数使得函数最大化的与真实数据的相似性。对于一个真实分布 x 而言,我们需要解决的问题是
当我们确定真实的分布具有概率密度函数 Pr,参数拟合的分布有密度函数 Pθ,那么拉近两个分布的方法自然是拉近他们的 KL 散度。
为了让这个散度有意义,首先需要做的是构建 Pθ,在我们生活中处理的分布函数的支撑集(定义:在概率论中,一个概率分布的支撑集是随机变量的所有可能值组成的集合的闭包)是低维度的,也就是重叠部分测度为 0,可忽略不计,那么 KL 散度的作用就不够了。
下面这个理解会更佳的精准
因为真实样本的概率分布 Pr 与生成器生成的样本概率分布 Pg 的支撑集不同,又由于两者的流型(Manifold)的维度皆小于样本空间的维度,因而两者的流型基本上是不可能完全对齐的,因而即便有少量相交