机器学习笔记——GAN3
如何定义一个通用的PG?(不一定非得是Gaussian)
一个normal distribution经过generator产生的可能是一个很复杂的distribution(PG)
目标是希望PG与Pdata越接近越好:
Pdata:数据集的分布
PG:generator生成的分布
虽然不知道他们的分布,我们可以从他们中sample:
用discriminator来train他们两者:与binary classify类似
Discriminator的训练目标:在Generator fixed前提下,最大化objective value,这等价于最大化object divergence
为什么两者等价?
这个式子表示选取合适的Gnerator使得discrimator的最大值最小
discriminator要最大化divergence,generator要最小化divergence
算法:
实际操作:
discriminator能作为evaluation function吗?
fGAN:General Framework of GAN
Tips for training GAN
JS divergence的问题
1.使用LSGAN
2.Wasserstein GAN(WGAN)
为什么用WGAN?
EBGAN