深度学习对抗生成网络--GAN

导读:GAN的风暴席卷了整个深度学习圈子,任何任务似乎套上GAN的壳子,立马就变得高大上了起来。那么,GAN究竟是什么呢? 

相关资料下载 

 加助教小姐姐的威信即可免费获取:

 

 1. GAN的基本思想

GAN全称对抗生成网络,顾名思义是生成模型的一种,而他的训练则是处于一种对抗博弈状态中的。下面举例来解释一下GAN的基本思想。

图 球员与教练员

假如你是一名篮球运动员,你想在下次比赛中得到上场机会。
于是在每一次训练赛之后你跟教练进行沟通:

你:教练,我想打球
教练:(评估你的训练赛表现之后)... 算了吧
(你通过跟其他人比较,发现自己的运球很差,于是你苦练了一段时间)

你:教练,我想打球
教练:... 嗯 还不行
(你发现大家投篮都很准,于是你苦练了一段时间的投篮)

你:教练,我想打球
教练: ... 嗯 还有所欠缺
(你发现你的身体不够壮,被人一碰就倒,于是你去泡健身房)

......

通过这样不断的努力和被拒绝,你最终在某一次训练赛之后得到教练的赞赏,获得了上场的机会。
值得一提的是在这个过程中,所有的候选球员都在不断地进步和提升。因而教练也要不断地通过对比场上球员和候补球员来学习分辨哪些球员是真正可以上场的,并且要“观察”得比球员更频繁。随着大家的成长教练也会会变得越来越严格。

现在大家对于GAN的思想应该有了感性的认识了,下面开始进一步窥探GAN的结构和思想。

GAN的主要应用目标:

生成式任务(生成、重建、超分辨率、风格迁移、补全、上采样等)

GAN的核心思想:生成器G和判别器D的一代代博弈

生成器:生成网络,通过输入生成图像

判别器:二分类网络,将生成器生成图像作为负样本,真实图像作为正样本

learn 判别器D:

给定G,通过G生成图像产生负样本,并结合真实图像作为正样本来训练D

learn 生成器G:

给定D,以使得D对G生成图像的评分尽可能接近正样本作为目标来训练G

G和D的训练过程交替进行,这个对抗的过程使得G生成的图像越来越逼真,D“打假”的能力也越来越强。

2.GAN的训练方式

前面已经定义了一个生成器(Generator)来生成手写数字,一个判别器(Discrimnator)来判别手写数字是否是真实的,和一些真实的手写数字数据集。那么我们怎样来进行训练呢?

关于生成器

对于生成器,输入需要一个n维度向量,输出为图片像素大小的图片。因而首先我们需要得到输入的向量。

Tips: 这里的生成器可以是任意可以输出图片的模型,比如最简单的全连接神经网络,又或者是反卷积网络等。这里大家明白就好。

这里输入的向量我们将其视为携带输出的某些信息,比如说手写数字为数字几,手写的潦草程度等等。由于这里我们对于输出数字的具体信息不做要求,只要求其能够最大程度与真实手写数字相似(能骗过判别器)即可。所以我们使用随机生成的向量来作为输入即可,这里面的随机输入最好是满足常见分布比如均值分布,高斯分布等。

Tips: 假如我们后面需要获得具体的输出数字等信息的时候,我们可以对输入向量产生的输出进行分析,获取到哪些维度是用于控制数字编号等信息的即可以得到具体的输出。而在训练之前往往不会去规定它。

关于判别器

对于判别器不用多说,往往是常见的判别器,输入为图片,输出为图片的真伪标签。

Tips: 同理,判别器与生成器一样,可以是任意的判别器模型,比如全连接网络,或者是包含卷积的网络等等。

 如何训练

上面进一步说明了生成器和判别器,接下来说明如何进行训练。

基本流程如下:

  • 初始化判别器D的参数  和生成器G的参数  。
  • 从真实样本中采样  个样本 {  } ,从先验分布噪声中采样 [公式] 个噪声样本 { [公式] } 并通过生成器获取 [公式] 个生成样本 { [公式] } 。固定生成器G,训练判别器D尽可能好地准确判别真实样本和生成样本,尽可能大地区分正确样本和生成的样本。
  • 循环k次更新判别器之后,使用较小的学习率来更新一次生成器的参数,训练生成器使其尽可能能够减小生成样本与真实样本之间的差距,也相当于尽量使得判别器判别错误。
  • 多次更新迭代之后,最终理想情况是使得判别器判别不出样本来自于生成器的输出还是真实的输出。亦即最终样本判别概率均为0.5。

 

Tips: 之所以要训练k次判别器,再训练生成器,是因为要先拥有一个好的判别器,使得能够教好地区分出真实样本和生成样本之后,才好更为准确地对生成器进行更新。更直观的理解可以参考下图: 

 

图 生成器判别器与样本示意图 

注:图中的黑色虚线表示真实的样本的分布情况,蓝色虚线表示判别器判别概率的分布情况,绿色实线表示生成样本的分布。  表示噪声,  到 [公式] 表示通过生成器之后的分布的映射情况。

我们的目标是使用生成样本分布(绿色实线)去拟合真实的样本分布(黑色虚线),来达到生成以假乱真样本的目的。

可以看到在(a)状态处于最初始的状态的时候,生成器生成的分布和真实分布区别较大,并且判别器判别出样本的概率不是很稳定,因此会先训练判别器来更好地分辨样本。
通过多次训练判别器来达到(b)样本状态,此时判别样本区分得非常显著和良好。然后再对生成器进行训练。
训练生成器之后达到(c)样本状态,此时生成器分布相比之前,逼近了真实样本分布。
经过多次反复训练迭代之后,最终希望能够达到(d)状态,生成样本分布拟合于真实样本分布,并且判别器分辨不出样本是生成的还是真实的(判别概率均为0.5)。也就是说我们这个时候就可以生成出非常真实的样本啦,目的达到。 

 

3. 训练相关理论基础

前面用了大白话来说明了训练的大致流程,下面会从交叉熵开始说起,一步步说明损失函数的相关理论,尤其是论文中包含min,max的公式如下图5形式:

图 minmax公式


判别器在这里是一种分类器,用于区分样本的真伪,因此我们常常使用交叉熵(cross entropy)来进行判别分布的相似性,交叉熵公式如下图6所示:

图 交叉熵公式

Tips: 公式中   和   为真实的样本分布和生成器的生成分布。由于交叉熵是非常常见的损失函数,这里默认大家都较为熟悉,就不进行赘述了。

 在当前模型的情况下,判别器为一个二分类问题,因此可以对基本交叉熵进行更具体地展开如下图7所示:

图7 二分类交叉熵

Tips: 其中,假定  为正确样本分布,那么对应的 就是生成样本的分布。  [公式] 表示判别器,则  [公式] 表示判别样本为正确的概率,  [公式] 则对应着判别为错误样本的概率。这里仅仅是对当前情况下的交叉熵损失的具体化。相信大家也还是比较熟悉。

 将上式推广到N个样本后,将N个样本相加得到对应的公式如下:

图8 N个样本的情况时

OK,到目前为止还是基本的二分类,下面加入GAN中特殊的地方。

对于GAN中的样本点  ,对应于两个出处,要么来自于真实样本,要么来自于生成器生成的样本  ~  ( 这里的 [公式] 是服从于投到生成器中噪声的分布)。

 其中,对于来自于真实的样本,我们要判别为正确的分布  。来自于生成的样本我们要判别其为错误分布(  )。将上面式子进一步使用概率分布的期望形式写出(为了表达无限的样本情况,相当于无限样本求和情况),并且让 [公式] 为 1/2 且使用 [公式] 表示生成样本可以得到如下图8的公式:

 

图8 GAN损失函数期望形式表达

OK,现在我们再回过头来对比原本的的  公式,发现他们是不是其实就是同一个东西呢!:-D

图9 损失函数的min max表达

我们回忆一下上面介绍的流程理解一下这里的  。

 

  • 这里的 相当于表示真实样本和生成样本的差异程度。
  • 先看  。这里的意思是固定生成器G,尽可能地让判别器能够最大化地判别出样本来自于真实数据还是生成的数据。
  • 再将后面部分看成一个整体令  =  ,看 [公式],这里是在固定判别器D的条件下得到生成器G,这个G要求能够最小化真实样本与生成样本的差异。
  • 通过上述min max的博弈过程,理想情况下会收敛于生成分布拟合于真实分布。

总结 

 通过一个判别器而不是直接使用损失函数来进行逼近,更能够自顶向下地把握全局的信息。比如在图片中,虽然都是相差几像素点,但是这个像素点的位置如果在不同地方,那么他们之间的差别可能就非常之大。

 比如上图10中的两组生成样本,对应的目标为字体2,但是图中上面的两个样本虽然只相差一个像素点,但是这个像素点对于全局的影响是比较大的,但是单纯地去使用使用损失函数来判断,那么他们的误差都是相差一个像素点,而下面的两个虽然相差了六个像素点的差距(粉色部分的像素点为误差),但是实际上对于整体的判断来说,是没有太大影响的。但是直接使用损失函数的话,却会得到6个像素点的差距,比上面的两幅图差别更大。而如果使用判别器,则可以更好地判别出这种情况(不会拘束于具体像素的差距)。

 小编吐血整理了有关Python人工智能的资料,有图像处理opencv\自然语言处理、机器学习、数学基础等资源库,代码、PPT、书籍也有,想学习人工智能或者转行到高薪资行业的,大学生也非常实用,无任何套路免费提供

扫码+vx领取,也可以咨询学习问题

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
GAN(Generative Adversarial Networks)是一种生成模型,由生成器(Generator)和判别(Discriminator)两部分组成。生成器的主要作用是生成与真实数据相似的假数据,判别的主要作用是判别真假数据。 GAN的训练过程是通过让生成器判别相互博弈和学习来实现的。其具体过程如下: 1. 生成器生成假数据,将假数据输入给判别,并标记为“假数据”。 2. 判别将真实数据和假数据进行判别,并输出判别结果。真实数据标记为“真数据”,假数据标记为“假数据”。 3. 生成器根据判别判别结果进行优化,使生成的假数据更接近真实数据,从而提高其被判别为“真数据”的概率。 4. 判别根据生成器生成的假数据进行优化,使其更准确地判别真实数据和假数据,并提高其判别的准确率。 5. 重复步骤1~4,直到生成器生成的假数据与真实数据无法区分为止。 GAN的训练过程可以用以下公式表示: 生成器的损失函数: $G_{loss} = -\frac{1}{m}\sum_{i=1}^{m}log(D(G(z^{(i)})))$ 其中,$D(G(z^{(i)}))$表示生成器生成的假数据的判别结果,$m$表示样本数。 判别的损失函数: $D_{loss} = -\frac{1}{m}\sum_{i=1}^{m}log(D(y^{(i)}))-\frac{1}{m}\sum_{i=1}^{m}log(1-D(G(z^{(i)})))$ 其中,$D(y^{(i)})$表示真实数据的判别结果,$1-D(G(z^{(i)}))$表示生成器生成的假数据的判别结果,$m$表示样本数。 在训练过程中,生成器判别相互博弈和学习,使得生成器生成的假数据更接近真实数据,判别能够更准确地判别真实数据和假数据。通过反复迭代,GAN能够生成与真实数据相似的假数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值