AIGC
文章平均质量分 79
微风❤水墨
https://github.com/Li-Lai
展开
-
GAN:WGAN-DIV
在计算机视觉的许多领域中,生成对抗性网络已经取得了巨大的成功,其中WGANs系列被认为是最先进的,主要是由于其理论贡献和竞争的定性表现。在 WGAN-gp 中,为了满足 1-Lipschitz 约束,训练出好效果,采用了真假数据的插值方法,来模拟全空间的均匀分布。WGAN-div 的作者说,这种做法是一种机械性的,很难靠有限的采样,模拟出这种全空间分布。作者提出了一种新的 Wasserstein 散度(W-div),它是W-met的松弛版本,不需要k-Lipschitz约束。是真数据与假数据的线性混合。原创 2023-12-05 17:53:40 · 356 阅读 · 0 评论 -
GAN:WGAN-GP-带有梯度惩罚的WGAN
WGAN-GP中移除了判别器中的BN操作: 因为WGAN-gp的惩罚项计算中,惩罚的是单个数据的gradient norm,如果使用 batchNorm,就会扰乱这种惩罚,让这种特别的惩罚失效。所以只有设置的不大不小,比如c=0.01(wgan作者推荐的数值),下图中的紫色线,梯度保持相对合理,才能让生成器获得不错的回传梯度。公式在下面, 里面表达的是它在WGAN的loss上加了一个惩罚项,如果判别器的 gradient 的 norm,离 1 越远,那么 loss 的惩罚力度越高。作者发现移除后效果很好。原创 2023-12-01 14:11:04 · 1646 阅读 · 1 评论 -
GAN:WGAN
这源于 weight clipping 的方法太简单粗暴了,导致判别器的参数几乎都集中在最大值和最小值上,相当于一个二值神经网络了,没有发挥深度神经网络的强大拟合能力。训练过程中有一个有意义的 loss 值来指示生成器收敛,并且这个数值越小代表 GAN 训练得越好,代表生成器产生的图像质量越高;1. 此时的判别器相当于做回归任务,它输出的是一般意义上的分数,而不是之前的概率。而如果都不使用批标准化,左图的 WGAN 生成质量很好,而右图的 DCGAN 生成的质量很差。2、权重裁剪后收敛缓慢(裁剪窗口太大)原创 2023-11-30 18:12:17 · 526 阅读 · 0 评论 -
GAN:SNGAN-谱归一化GANs
的观点:WGAN-GP中使用gradient penalty 的方法来限制判别器,但这种放法只能对生成数据分布与真实分布之间的分布空间的数据做梯度惩罚,无法对整个空间的数据做惩罚。因为谱归一化事实上要求网络的每一层都满足 L 约束,但这个条件太死了,也许这一层可以不满足 L 约束,下一层则满足更强的 L 约束,两者抵消,整体就满足 L 约束,但谱归一化不能适应这种情况。谱归一化是一种“事前”的处理方案,它直接将每一层的权重都谱归一化后才进行运算,谱归一化作为了模型的一部分,更加合理一些。原创 2023-12-04 14:55:46 · 623 阅读 · 1 评论 -
GAN:WGAN前作
可以看出更有明显的梯度方差较大的缺陷,导致训练的不稳定。在训练的早期(训练了1 epoch和训练了10 epochs),梯度的方差很大,对应的曲线看起来比较粗,直到训练了25 epochs以后GAN收敛了才出现方差较小的梯度。文章花了大量的篇幅进行数学推导,证明在一般的情况,如果Discriminator训练得太好,Generator就无法得到足够的梯度继续优化,而如果Discriminator训练得太弱,指示作用不显著,同样不能让Generator进行有效的学习。发表:ICLR 2017。原创 2023-11-30 13:41:47 · 402 阅读 · 0 评论 -
GAN:DCGAN-深度卷积生成对抗网络
此外,我们发现将动量项留在0.9的建议值导致了训练振荡和不稳定性,同时将其降低到0.5,这有助于稳定训练。对单个样本进行实验,结果是不稳定的,但是对三个样本的Z向量进行平均,显示了在语义上服从算术是一致的和稳定的。(暗指人脸编辑是可行的,当然这个是16年,很早的文章了,很有启发性。3个女性(微笑表情)的平均 - 3个女性(正常表情)的平均 + 3个男性(正常表情)的平均。3:权重初始化都是以零为中心的正态分布初始化的,标准偏差为0.02。对于每一列,将样本的Z向量进行算术运算,得到新的向量Y。原创 2023-11-28 11:31:13 · 531 阅读 · 0 评论 -
GAN:ImprovedGAN-训练GAN的改进策略
具体来说,生成网络产生的图片经过判别网络后的中间层的feature 和真实图片经过判别网络的feature尽可能相同。首先从训练集中拿出一个batch在训练开始前固定起来,算出这个特定batch的均值和方差,进行更新训练中的其他batch。这是因为辨别器在辨别的时候是对单个样本进行辨别(对每个输入均给出一个0-1的分数),没有考虑样本之间的关系,所以容易造成模式坍塌。但是BN有个缺点,即BN会时G网络生成一个batch的图片中,每张图片都有相关联(如,一个batch中的图片都有比较多的绿色)。原创 2023-11-28 16:56:30 · 386 阅读 · 0 评论 -
GAN:GAN论文学习
GAN的训练:动态的过程,是生成器G 与判别器D 之间的相互博弈过程。通俗点讲,即要使得生成器G 生成的所谓的"假图"骗过判别器D ,那么最优状态就是生成器G 生成的所谓的"假图"在判别器D 的判别结果为0.5,不知道到底是真图还是假图。CNN的训练:定义好特定的损失函数,然后利用梯度下降优化参数,尽可能用局部最优解去逼近全局最优解。GAN是由Ian Goodfellow于2014年提出,z代表了随机输入数据,该数据是随机高斯噪声。GAN的目的就是无中生有,以假乱真。p_data代表真实数据概率密度分布,原创 2023-11-28 09:50:09 · 241 阅读 · 0 评论 -
GAN:PacGAN-生成对抗网络中两个样本的威力
把相同label的样本拼接就是文中的 packing 技术,接收拼接 packing 样本的判别器就叫 packed 判别器。左侧是默认的判别器,右侧是 packed 2 个样本的判别器,输入节点翻倍。将判别器的输入改成多个样本,这样判别器可以同时基于看到的多个样本进行决策,可以从一定程度上缓解 mode collapse。:修改调整判别器,使其决策是基于同类的多个样本(不用管样本是真实样本还是生成样本)。常规GAN的做法:使用单一判别器,将单一样本映射为单一的soft标签。取决与使用的GANs架构。原创 2023-11-29 11:08:23 · 271 阅读 · 0 评论