![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
GAN
ChaoFeiLi
这个作者很懒,什么都没留下…
展开
-
WGAN-GP 算法和代码结合点
写这篇文章不是为了介绍WGAN-GP,而是为了把WGAN-GP和Code对应起来。因为最后还是要付诸于实践,而不仅仅就是介绍什么,因为关于WGAN-GP好的介绍已经很多了。一、WGAN-GP解决的问题WGAN中的weight clipping导致的参数集中化和调参上的梯度爆炸和梯度消失问题WGAN-GP解决 了问题将参数与限制联系起来达到真实的Lipschitz限制条件所以WGAN-GP的贡献是:提出了一种新的lipschitz连续性限制手法—梯度惩罚,解决了训练梯度消失梯度爆炸的问.原创 2020-12-07 10:06:37 · 1253 阅读 · 0 评论 -
WGAN-算法和代码结合点
写这篇文章不是为了介绍WGAN,而是为了把WGAN和Code对应起来。因为最后还是要付诸于实践,而不仅仅就是介绍什么,因为关于WGAN好的介绍已经很多了。一、WGAN比GAN的优越性Wasserstein GAN(下面简称WGAN)成功地做到了以下爆炸性的几点:彻底解决GAN训练不稳定的问题,不再需要小心平衡生成器和判别器的训练程度 基本解决了collapse mode的问题,确保了生成样本的多样性 训练过程中终于有一个像交叉熵、准确率这样的数值来指示训练的进程,这个数值越小代表GAN训.原创 2020-12-06 17:20:58 · 2596 阅读 · 3 评论 -
ACGAN-半监督式GAN
参考文献https://www.jianshu.com/p/aef29fe51c73D_real, C_real = Discriminator( real_imgs) # real_img 为输入的真实训练图片D_real_loss = torch.nn.BCELoss(D_real, Y_real) # Y_real为真实数据的标签,真数据都为-1,假数据都为+1C_real_loss = torch.nn.CrossEntropyLoss(C_re...原创 2020-12-01 15:51:50 · 442 阅读 · 0 评论 -
GAN的Loss的比较研究——传统GAN的Loss的理解
参考文献:https://blog.csdn.net/StreamRock/article/details/81096105https://www.cnblogs.com/kai-nutshell/p/12968454.html参考文献1中给出对于loss_D的解释,鄙人表示很不错,但是对于Loss_G的解释太过于笼统,没有给出具体的解释。本文将继续解释GAN里面有两个Loss:Loss_D(判别网络损失函数)、Loss_G(生成网络损失函数)。Loss_D只有两个分类,Real imag原创 2020-12-01 15:05:55 · 3842 阅读 · 1 评论 -
GAN的几种评价指标
https://blog.csdn.net/qq_35586657/article/details/98478508写的不错,可以用来评估GAN原创 2020-11-30 19:48:36 · 1208 阅读 · 0 评论 -
GAN及其相关模型训练细节总结
https://blog.csdn.net/qq_40128284/article/details/109445844https://cloud.tencent.com/developer/article/1430237https://www.sohu.com/a/272494057_473283https://www.cnblogs.com/wanghui-garcia/p/12781438.html原创 2020-11-30 16:00:40 · 314 阅读 · 0 评论