[论文笔记] SPECTRAL NORMALIZATION FOR GENERATIVE ADVERSARIAL NETWORKS

本文探讨了Spectral Normalization(SN)在Generative Adversarial Networks(GANs)中的作用,旨在提高Discriminator的稳定性。SN通过对网络层进行归一化,确保Lipschitz连续性,从而限制鉴别器的Lipschitz常数不超过1。介绍了SN的计算方法,对比了SN与其他正则化技术,并提供了PyTorch源码链接。实验证明SN能有效提升GAN的训练稳定性。
摘要由CSDN通过智能技术生成

简介:对 normalization层 进行改进,提出spectral normalization(SN-GAN),以提高Discriminator的训练稳定度;
优点
1、Lipschitz常数是唯一需要进行调节的超参;
2、实现简单,额外的计算成本很低;


一、背景

原始(2014年)GAN公式,
E x ~ q d a t a [ log ⁡ D ( x ) ] + E x ′ ~ p G [ log ⁡ ( 1 − D ( x ′ ) ) ] E_{x~ q_{data}}[\log{D(x)}]+E_{x^{'}~ p_{G}}[\log{(1-D(x^{'})})] Exqdata[logD(x)]+ExpG[log(1D(x))]

一个样本x输入,它可能来自于真实分布,也可能来自于生成器的输出分布。该样本对损失函数的贡献为
q d a t a ( x ) log ⁡ D ( x ) + p G ( x ) log ⁡ ( 1 − D ( x ) ) q_{data}(x)\log{D(x)}+p_{G}(x)\log{(1-D(x)}) qdata(x)logD(x)+pG(x)log(1D(x))

当生成器固定,最优的鉴别器求解如下:
q d a t a ( x ) D ( x ) − p G ( x ) 1 − D ( x ) = 0 \frac{q_{data}(x)}{D(x)}-\frac{p_{G}(x)} {1-D(x)}=0 D(x)qdata(x)1D(x)pG(x)=0

因此(文中直接给了下式,没给推导),
D ( x ) ∗ = q d a t a ( x ) q d a t a ( x ) + p G ( x ) D(x)^*=\frac{q_{data}(x)}{q_{data}(x)+p_{G}(x)} D(x)=qdata

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值