关于GAN的训练技巧的二三事

GAN的生成效果十分出众,但其训练过程的困难程度也十分出众,在“Deep Learning with Python”一书中,Keras之父Francois Chollet称这些训练技巧为炼金术而不是科学,他在书中列举了部分,摘录如下:

  1. 我们使用 tanh作为生成器最后一层的激活,而不用 sigmoid,后者在其他类型的模型中更加常见。
  2. 我们使用正态分布(高斯分布)对潜在空间中的点进行采样,而不用均匀分布。
  3. 随机性能够提高稳健性。训练GAN得到的是一个动态平衡,所以GAN可能以各种方式“卡住”。在训练过程中引入随机性有助于防止出现这种情况。我们通过两种方式引入随机性:一种是在判别器中使用dropout,另一种是向判别器的标签添加随机噪声。
  4. 稀疏的梯度会妨碍 GAN 的训练。在深度学习中,稀疏性通常是我们需要的属性,但在GAN 中并非如此。有两件事情可能导致梯度稀疏:最大池化运算和ReLU 激活。我们推荐使用步进卷积代替最大池化来进行下采样,还推荐使用LeakyReLU 层来代替ReLU 激活。LeakyReLU 和ReLU 类似,但它允许较小的负数激活值,从而放宽了稀疏性限制。
  5. 在生成的图像中,经常会见到棋盘状伪影,这是由生成器中像素空间的不均匀覆盖导致的
    (见图8-17)。为了解决这个问题,每当在生成器和判别器中都使用步进的Conv2DTranpose或Conv2D 时,使用的内核大小要能够被步幅大小整除。棋盘状伪影
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值