目录
一、理论部分
1、GAN基本原理介绍
参见另一篇博文:生成式对抗网络(Generative Adversarial Nets,GAN)
2、对KL散度的理解
- 基本原理:KL散度
- 在GAN中为何需要使用KL散度?
假设我们现在知道样本的真实分布 p d a t a ( x ) p_{data}(x) pdata(x)和由生成器生成的数据的分布 p g ( x ; θ ) p_{g}(x; \theta) pg(x;θ)。GAN的目标是得到一个能生成尽可能逼真的图片的生成器G,因此,我们希望 p d a t a ( x ) p_{data}(x) pdata(x)和 p g ( x ; θ ) p_{g}(x; \theta) pg(x;θ)之间的差距越小越好。
那么,如何训练G,优化参数 θ \theta θ,使得 p d a t a ( x ) p_{data}(x) pdata(x)和 p g ( x ; θ ) p_{g}(x; \theta) pg(x;θ)之间的差距缩小呢?
现在我们可以从训练集抽取一组真实图片来训练 p g ( x ; θ ) p_{g}(x; \theta) pg(x;θ)分布中的参数 θ \theta θ使其能逼近于真实分布。因此,现在从 p d a t a ( x ) p_{data}(x) pdata(x)中抽取 m 个真实样本 { x 1 x^{1} x1, x 2 x^{2} x2, x 3 x^