这个模型,我是在李宏毅老师的课程上看到的。 之所以单把这个模型拿出来写一个博客是因为,我觉得李宏毅老师讲的不对啊。首先,声明李宏毅老师是我非常钦佩和尊敬的老师,看我的博客就可以知道,很多博客都是关于他的视频课程的读后感,可以说李宏毅老师是我的恩师啊。
建议看我的博客之间大家还是看看李宏毅老师的视频课程GAN LECTURE6。
首先,按着论文的思路来讲以下这个模型的思想,同时对比李宏毅老师的思路。
论文中,作者发现传统的GAN训练到一定的程度以后,虽然模型已经收敛了吗,但是生成的图像的质量依然很差。所以作者拿数据出来,做了可视化分析,如下图所示:
简单说明一下图,这个蓝线下方区域,是判别器输出为正标签的区域。
如果你仔细看一下图的,你就会产生这样的疑问。为什么生成数据标分会那么高(离 boundary很远,真实数据反而离 boundary 很近)? 其实,这个图片表示的是GAN 训练到最理想情况。
1.GAN训练到理想情况后,蓝色的线应该是穿过真实数据的分布。(直觉上的理解就是,分类器在某些情况下没办法分别,哪些是真实数据,哪些是生成数据。) 。
2. GAN 会把一些生成数据分数打的很高。而这部分数据,从图中可以看出跟真实数据分布差异比较大,生成的图像质量往往也会不好。
理解了这个图片之后,我们就跟着作者的思路走。
作者看到生成数据质量差是因为离 bound