GAN
我是白小纯
李慢慢,你叫慢慢为什么每次都是最快的那个呢?
李慢慢身份:书院大师兄
看了将夜,几个月了,只这句话忘不掉。
向慢慢看齐!!
展开
-
BEGAN: Boundary Equilibrium Generative Adversarial Networks阅读笔记
BEGAN: Boundary Equilibrium Generative Adversarial Networks阅读笔记摘要我们提出了一种新的用于促成训练时生成器和判别器实现均衡(Equilibrium)的方法,以及一个配套的 loss,这个 loss 由 Wasserstein distance 衍生而来,Wasserstein distance 则是训练基于自编码器的生成对抗网络(GAN)翻译 2017-08-23 22:20:48 · 4481 阅读 · 5 评论 -
DCGAN实验
一,理论基础DCGAN对卷积神经网络的结构做了一些改变,以提高样本的质量和收敛的速 度,这些改变有: 1.取消所有pooling层。G网络中使用转置卷积(transposed convolutional layer)进行上采样,D网络中用加入stride的卷积代替pooling。 2.在D和G中均使用batch normalization 3.去掉FC层,使网络变为全卷积网络 4.G网络原创 2017-08-23 22:43:16 · 952 阅读 · 0 评论 -
Wasserstein GAN
学习GAN过程中整理的文字,其中很多来自令人拍案叫绝的Wasserstein GAN1. 简介2.原始GAN存在的问题2.1原始GAN回顾回顾一下,原始GAN中判别器要最小化如下损失函数,尽可能把真实样本分为正例,生成样本分为负例:−Ex∼Pr[logD(x)]−Ex∼Pg[log(1−D(x))]\begin{align} -\mathbb{E}_{x\sim P_r}[\log D(x)] -转载 2017-10-30 22:48:36 · 947 阅读 · 0 评论