简介:对 normalization层 进行改进,提出spectral normalization(SN-GAN),以提高Discriminator的训练稳定度;
优点:
1、Lipschitz常数是唯一需要进行调节的超参;
2、实现简单,额外的计算成本很低;
一、背景
原始(2014年)GAN公式,
E x ~ q d a t a [ log D ( x ) ] + E x ′ ~ p G [ log ( 1 − D ( x ′ ) ) ] E_{x~ q_{data}}[\log{D(x)}]+E_{x^{'}~ p_{G}}[\log{(1-D(x^{'})})] Ex~qdata[logD(x)]+Ex′~pG[log(1−D(x′))]
一个样本x输入,它可能来自于真实分布,也可能来自于生成器的输出分布。该样本对损失函数的贡献为
q d a t a ( x ) log D ( x ) + p G ( x ) log ( 1 − D ( x ) ) q_{data}(x)\log{D(x)}+p_{G}(x)\log{(1-D(x)}) qdata(x)logD(x)+pG(x)log(1−D(x))
当生成器固定,最优的鉴别器求解如下:
q d a t a ( x ) D ( x ) − p G ( x ) 1 − D ( x ) = 0 \frac{q_{data}(x)}{D(x)}-\frac{p_{G}(x)} {1-D(x)}=0 D(x)qdata(x)−1−D(x)pG(x)=0
因此(文中直接给了下式,没给推导),
D ( x ) ∗ = q d a t a ( x ) q d a t a ( x ) + p G ( x ) D(x)^*=\frac{q_{data}(x)}{q_{data}(x)+p_{G}(x)} D(x)∗=qdata