AIGC实战——WGAN
0. 前言
原始的生成对抗网络 (Generative Adversarial Network
, GAN
) 在训练过程中面临着模式坍塌和梯度消失等问题,为了解决这些问题,研究人员提出了大量的关键技术以提高GAN模型的整体稳定性,并降低了上述问题出现的可能性。例如 WGAN
(Wasserstein GAN
) 和 WGAN-GP
(Wasserstein GAN-Gradient Penalty
) 等,通过对原始生成对抗网络 (Generative Adversarial Network
, GAN
) 框架进行了细微调整,就能够训练复杂GAN。在本节中,我们将学习 WGAN
与 WGAN-GP
,两者都对原始 GAN 框架进行了细微调整,以改善图像生成过程的稳定性和质量。
1. WGAN-GP
WGAN (Wasserstein GAN
) 是提高 GAN
训练稳定性方面的一次巨大进步,在经过一些简单改动后 GAN
就能够实现以下两个特点:
- 与生成器的收敛度和生成样本质量相关的损失度量
- 优化过程的稳定性得到提高
具体来说,WGAN
针对判别器和生成器提出了一种新的损失函数 (Wasserstein Loss
),用这种损失函数代替二元交叉熵就可以让