GAN的原理(李宏毅GAN笔记)

我们通常用GAN来做Gerneration。

对于一张图片x,其通常分布在高维空间中的一个流行上。在下图中,位于蓝色区域的点仅有很大的概率出现在我们的database中。

那么图像生成的主要任务是什么呢?

给定义原始数据的分布,再给定一个以\Theta作为参数的概率模型P_{G}(x,\Theta ),该模型可以由generator学习得到。我们希望的,便是找到相应的参数\theta,使得原始数据集中的样本x在由G所定义的概率分布P_{G}(x,\theta )中出现的概率尽可能大。

为了找到这样的参数,我们可以先从database中随机选出m个样本,并根据计算达到每个样本被生成的概率P_{G}(x^{\theta };\theta ),再将这m个样本对应的概率乘起来,即可得到相应的似然函数。

 进一步具体化似然函数,我们发现采用极大似然估计得到的参数\theta ^{*},也恰好使得real image与generated image的KL散度达到最小。

我们的generator本质上是一个network,这个network定义了一个概率分布P_{G}(x),我们希望的便是P_{G}(x)P_{data}(x)尽可能的接近。问题在于该如何得到P_{G}(x)呢? 

我们暂且放下先前的问题不管.我们把目光转向discriminator.

尽管我们不知道P_{G}(x)P_{data}(x)的具体形式,但是我们可以对真实图片与生成图片进行采样。

对于一个给定的generator,我们希望优化的损失函数如下图,其形式非常类似与二分类问题中的交叉熵损失函数。 

 我们发现当真实图片与生成图片具有较小的divergence时,discriminator难以辨别真实图片和生成图片。但是当两者具有较大的diverg

 

 

 

 

 

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值