学习来源
学习了下面两篇文章,然后自己重新敲了一下WGAN的代码:
看到文章的瞬间,就直接点了关注了:https://blog.csdn.net/wangeil007
他写的GAN:https://blog.csdn.net/wangeil007/article/details/111655928
他写的WGAN:https://blog.csdn.net/wangeil007/article/details/111678291
顺便再加上迁移学习的内容(因为我预测后面会用到):https://blog.csdn.net/wangeil007/article/details/112072618
原文及赏析
顺便再加上GAN和WGAN的原文链接:
GAN原文:https://arxiv.org/abs/1406.2661
WGAN原文:第一篇指出不足并给出公式,第二篇改进方法并代码实现(虽然所谓“改进”就改进了四个点),但这就是“研究”!
-
第一篇《Towards Principled Methods for Training Generative Adversarial Networks》https://arxiv.org/abs/1701.04862
-
第二篇《Wasserstein GAN
》https://arxiv.org/abs/1701.07875 -
GAN赏析:https://blog.csdn.net/coder_kang/article/details/103483255
-
WGAN赏析:https://zhuanlan.zhihu.com/p/25071913写的也很好,知乎上关注+1。
另外推荐
另外,看英文文章有点吃力的可以下载一个知云文献翻译https://amy.lanzoux.com/b06gha7if是我一个好朋友看我看中文文献像吃了兴奋剂,看英文文献像吃了安眠药,对比很明显。
WGAN小项目代码
快十点了,不能再学了,溜了溜了,有时间再补坑。