【GANs】什么是饱和损失函数 Non-Saturating LossFunction

在设定GAN的损失函数时,总会有文献说SaturatingNon-Saturating Loss functions,具体他们各是什么,以及为什么这么称呼呢?

一句话总结:非饱和损失函数能在训练早期提供更大的梯度

我们首先看一下两种的数学表达式

  1. 饱和Loss:生成器希望最小化被判断为的概率
    min ⁡ log ⁡ ( 1 − D ( G ( z ) ) ) (1) \min \log(1-D(G(z))) \tag{1} minlog(1D(G(z)))(1)

  2. 非饱和Loss:生成器希望最大化被判断为的概率
    max ⁡ log ⁡ ( D ( G ( z ) ) ) or min ⁡ − log ⁡ ( D ( G ( z ) ) ) (2) \max \log(D(G(z))) \tag{2}\\ \text{or} \min -\log(D(G(z))) maxlog(D(G(z)))orminlog(D(G(z)))(2)

后者能提供的梯度信息更好,为什么呢?

在训练的初始阶段, G G G 生成的样本很容易被 D D D 识别出来,也就是 D ( G ( z ) ) D(G(z)) D(G(z)) 趋近于0,此时饱和GAN的 Loss_G 的梯度会很小,所以饱和了。而非饱和GAN的 Loss_G 的梯度会大很多,能够为网络的权重更新提供好的梯度方向,帮助收敛,所以没饱和

在这里插入图片描述
图来自于
A Review on Generative Adversarial Networks: Algorithms, Theory, and Applications

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

yzy_1996

买杯咖啡,再接再厉

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值