系统学习CV-lesson7-生成模型/GAN

贝叶斯

https://zhuanlan.zhihu.com/p/149853224
https://zhuanlan.zhihu.com/p/26262151
[菜菜机器学习]

P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) P(A|B)=\frac{P(B|A)P(A)}{P(B)} P(AB)=P(B)P(BA)P(A)
P ( 类 别 ∣ 特 征 ) = P ( 特 征 ∣ 类 别 ) P ( 类 别 ) P ( 特 征 ) P(类别|特征)=\frac{P(特征|类别)P(类别)}{P(特征)} P()=P()P()P()

生成模型 判别模型

https://www.zhihu.com/question/20446337/answer/1661760071
https://www.zhihu.com/question/20446337/answer/256466823
https://www.cnblogs.com/nolonely/p/6435213.html
https://www.cnblogs.com/fanyabo/p/4067295.html
https://zhuanlan.zhihu.com/p/85946418
https://blog.csdn.net/zouxy09/article/details/8195017?ops_request_misc=&request_id=&biz_id=102&utm_term=%E7%94%9F%E6%88%90%E6%A8%A1%E5%9E%8B&utm_medium=distribute.pc_search_result.none-task-blog-2blogsobaiduweb~default-2-.nonecase&spm=1018.2226.3001.4450

判别模型得到后验概率,生成模型得到联合概率

自编码

https://zhuanlan.zhihu.com/p/24813602
编码器用于压缩,解码器用于重构(生成)

到了真正使用自编码的时候. 通常只会用到自编码前半部分.

变分自编码

https://www.zhihu.com/search?q=%E5%8F%98%E5%88%86%E8%87%AA%E8%A7%A3%E7%A0%81%E5%99%A8&utm_content=search_history&type=content
https://kexue.fm/archives/5253(重要)
https://zhuanlan.zhihu.com/p/27549418
https://zhuanlan.zhihu.com/p/161277762
https://zhuanlan.zhihu.com/p/27870747
https://www.bilibili.com/video/BV1hf4y1r7C7?from=search&seid=18163173565167131040

KL散度

https://editor.csdn.net/md/?articleId=117263695(信息熵交叉熵)
https://zhuanlan.zhihu.com/p/74075915(JS散度和推土机距离没看)
https://zhuanlan.zhihu.com/p/37452654

GAN

VAE没有编码过程,那么就变成了GAN

https://kexue.fm/archives/4439(没看)
https://zhuanlan.zhihu.com/p/110707801(没看)
https://zhuanlan.zhihu.com/p/27549418
https://zhuanlan.zhihu.com/p/27870747(GAN与VAE)
https://zhuanlan.zhihu.com/p/266677860(公式解释,以及算法步骤很重要)
https://zhuanlan.zhihu.com/p/26994666(重要)
https://zhuanlan.zhihu.com/p/89267493(code)
https://zhuanlan.zhihu.com/p/72279816(code重要)
https://www.zhihu.com/question/320465400/answer/1051141660(GAN随机噪声)
https://zhuanlan.zhihu.com/p/353430409(GAN做数据增强!!!)
https://zhuanlan.zhihu.com/p/33752313(重要)
https://zhuanlan.zhihu.com/p/27536143(还没看)

并且判别器分辨不出样本是生成的还是真实的(判别概率均为0.5) ——以最终生成模型为目的 为驱动
判别器其收敛是: 判别器(真值)的概率是0.5
生成器收敛是:判别器(伪造数据)的概率是0.5

pytorch

eval 和no_grad

model.eval仍会保存动态图
no_grad 不会记录动态图

with torch.no_grad():
	model.eval()

backward retain_graph

backward()调用结束后,动态计算图会被销毁,而retain_graph=True动态计算图后会被保存,还能二次调用backward()

loss gpu

通常情况下损失函数不需要放在gpu上

问题

损失降不下去

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值