深度学习笔记一:生成对抗网络(Generative Adversarial Nets)

文章链接:http://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf

这是Goodfellow的scholar主页,没看过的可以去膜拜一下。https://scholar.google.ca/citations?user=iYN86KEAAAAJ

与GAN相关的最新的推荐文章:

Unsupervised and Semi-supervised Learning with Categorical Generative Adversarial Networks

Semi-Supervised Learning with Generative Adversarial Networks

Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data


在这篇文章中,作者提出了一种新的生成模型的计算过程,从而能够回避一些生成模型所面临的困境。所提出的生成对抗网络同时训练两个模型:生成模型G和判别模型D。对G的训练的目标是 使得D犯错的概率最大。对D的训练目标是使得其能够判别一个样本是来自生成模型还是真实数据。稍微有点绕,文中作者做了一个比喻,有助于理解。生成模型G存在一个对手,即判别模型D,可将G类比为一个伪造货币的团队,他们试图生产假的货币,并且使用这些货币而不被警察发现,而D则可类比为警察,他们要查出这些伪造的货币。最后的竞争结果直到伪造者(G)造出警察(D)无法判别真假的货币为止。当G和D两者都是多层感知机的时候,即称为对抗网络(adversarial nets)。



图1 训练过程理解



图一是对 对抗网络训练过程的通俗理解。图中的蓝色虚线是判别器D,绿色实现是生成模型G的分布P(G),黑色点画线是真实数据生成分布Px,下方的两个横线表示x=G(z)这个将噪声映射到x的趋势。从(a)到(d)可以看到,随着训练迭代,G的分布越来越接近真实数据,而D最后无法区分G和真实数据,变成一个定值0.5。训练目标是:


第一项是D的训练目标,最大化正确分类的判别概率,第二项是G的最小化训练目标。在实际操作的时候,G训练为最大化,这是因为原来的那一项在早期学习的时候容易饱和,而换成这一项之后能提供更强的梯度。


  • 6
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值