GAN 原理

D loss 和 G loss :

LossD = Loss_fake + Loss_real
LossG = Loss_G_fake_D + 其他约束项

BCE loss的说明参考

GAN的loss导致问题

判别器 loss(BCE): BCE loss全称: Binary Cross Entropy 二元交叉熵

在这里插入图片描述

      BCE接近0说明Discriminator可以非常容易的判别真假数据。说明Generator的训练结果不好, 理想情况下应该是无法判断真假数据才对。

     GAN最重要的思想,就是让判别器D分辨不出图像到底是真实的,还是虚拟生成的。也就是说,判别器不论在哪种输入条件下,他都应该输出0.5(输出范围是0-1),就是无法分类。GAN的完美D_loss和G_loss就是0.5。那么ln0.5 ≈ -0.693

生成器loss(MSE):Mean Square Error Loss ,就是非常常见的方差

      生成器loss当然是越小越好。


GAN入门基础指导:

GAN入门基础指导
GAN
通俗理解GAN

softmax用于多分类,二分类的激活函数用sigmoid

CycleGAN(五)loss解析及更改与实验


GAN技巧:

10 条训练经验
GAN的训练和batch size的关系

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CycleGAN是一种用于图像转换的深度学习模型,它可以将一个域中的图像转换成另一个域中的图像,而无需配对的训练数据。CycleGAN原理基于对抗生成网络(GAN)和循环一致性损失。 CycleGAN的核心思想是通过两个生成器和两个判别器来实现图像转换。其中,一个生成器将一个域中的图像转换为另一个域中的图像,而另一个生成器则将转换后的图像再转回原始域。两个判别器分别用于判断生成的图像是否真实以及转换前后的图像是否一致。 具体来说,CycleGAN的训练过程如下: 1. 生成器G将域A中的图像转换为域B中的图像,生成器F将域B中的图像转换回域A中。 2. 判别器D_A用于判断域A中的图像和生成器F生成的图像的真实性,判别器D_B用于判断域B中的图像和生成器G生成的图像的真实性。 3. 通过对抗训练,生成器G和判别器D_A共同学习,使得生成的图像能够以假乱真地欺骗判别器D_A。 4. 同样地,生成器F和判别器D_B也进行对抗训练,使得生成的图像能够以假乱真地欺骗判别器D_B。 5. 为了保持图像转换的一致性,CycleGAN引入了循环一致性损失。即将一个图像通过生成器G转换为域B中的图像,再通过生成器F转换回域A中的图像,应该与原始图像尽可能接近。同样地,将一个图像通过生成器F转换为域A中的图像,再通过生成器G转换回域B中的图像,也应该与原始图像尽可能接近。 6. 最终的目标是使生成器G和生成器F能够同时实现高质量的图像转换和循环一致性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值