GAN是什么?
其全称是Generative Adversarial Networks,即生成式对抗网络,这是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型中有两大模块,生成模型(Generative Model,我们用G来简称),和判别模型(Discriminative,我们用D来简称),GAN的学习过程便是这两个过程之间的博弈对抗,在GAN的理论中,并不要求G和D都是神经网络,只要是能拟合相应生成和判别的函数即可。在这篇中我们会配合简单的代码来解说,并能够实现GAN,这里的GAN代码可以在自己的笔记本等运行。
GAN内部的简单介绍:
首先我们先介绍一下GAN,如图:数据方面,我们有真实的数据,例如一些图片,还有我们自己定义的噪声,也就是一些随机数而已,这些随机数一般是一维(可能是几十个元素),输入到G中,
G对噪声不断进行编码,也就从低维到高维,最终形成一张图片,然后我们将噪声给D和真实图片给D,D进行判别,最后再对结果进行优化。
接下来我们更细的介绍GAN的训练,首先,我们明确一点,G和D是分开训练的,两者是在训练的过程中分别进步的,一开始,我们可以对G和D中的权重随便设置,这个时候,G和D都是几层网络而已,接下来我们将噪声输入到G中,G这个时候生成的东西也不知道是什么牛鬼蛇神,反正是乱七八糟的数据,然后我们人为的去操作,把这乱七八糟的数据输入到D中,我们自己让D对这些数据判别为“假”,然后输入真实图片,我们自己让D判别为真,然后对D的权重和偏置进行优化,再然后就是对G的权重和偏置进行优化,优化的目标是以真实图片训练权重和偏置,之后便是按照此过程不断的训练,也就不断地运行,在运行到100000次(随便说个次数)后,这些权重和偏置也被训练到稳定的状态了,这个时候如果我们输入随机数到G中,G便可以生成图片,而这个图片已经达到能够让D(非人为的,让D自行判断)判断为“真”。
GAN到此时也便完成了。
下面是代码解说:
1)首先是导入包(也不用这么多)
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
import numpy as np
import matplotlib.pyplot as plt
import matplotlib.gridspec as gridspec
import os
2)然后是读取数据
mnist=input_data.read_data_sets("./fashion_mnist",one_hot=True)
3)再定义一个函数,按照正太分布,专门输出随机值,这个随机值是用在权重和偏置的初始化,而不是噪声
def xavier_init(size):
in_dim=size[0]
xavier_stddev=1./tf.sqrt(in_dim/2.)
return tf.random.normal(shape=size,stddev=xavier_stddev)
4)再下面是判别器各个权重的设定,当然你也可以设置成两层网络,这里的X只生成器生成的图片。
X=tf.placeholder(tf.float32,shape=[None,784])
D_w1=tf.Variable(xavier_init([784,256]))
D_b1=tf.Variable(tf.zeros(shape=[256]))
D_w2=