贝叶斯
https://zhuanlan.zhihu.com/p/149853224
https://zhuanlan.zhihu.com/p/26262151
[菜菜机器学习]
P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) P(A|B)=\frac{P(B|A)P(A)}{P(B)} P(A∣B)=P(B)P(B∣A)P(A)
P ( 类 别 ∣ 特 征 ) = P ( 特 征 ∣ 类 别 ) P ( 类 别 ) P ( 特 征 ) P(类别|特征)=\frac{P(特征|类别)P(类别)}{P(特征)} P(类别∣特征)=P(特征)P(特征∣类别)P(类别)
生成模型 判别模型
https://www.zhihu.com/question/20446337/answer/1661760071
https://www.zhihu.com/question/20446337/answer/256466823
https://www.cnblogs.com/nolonely/p/6435213.html
https://www.cnblogs.com/fanyabo/p/4067295.html
https://zhuanlan.zhihu.com/p/85946418
https://blog.csdn.net/zouxy09/article/details/8195017?ops_request_misc=&request_id=&biz_id=102&utm_term=%E7%94%9F%E6%88%90%E6%A8%A1%E5%9E%8B&utm_medium=distribute.pc_search_result.none-task-blog-2blogsobaiduweb~default-2-.nonecase&spm=1018.2226.3001.4450
判别模型得到后验概率,生成模型得到联合概率
自编码
https://zhuanlan.zhihu.com/p/24813602
编码器用于压缩,解码器用于重构(生成)
到了真正使用自编码的时候. 通常只会用到自编码前半部分.
变分自编码
https://www.zhihu.com/search?q=%E5%8F%98%E5%88%86%E8%87%AA%E8%A7%A3%E7%A0%81%E5%99%A8&utm_content=search_history&type=content
https://kexue.fm/archives/5253(重要)
https://zhuanlan.zhihu.com/p/27549418
https://zhuanlan.zhihu.com/p/161277762
https://zhuanlan.zhihu.com/p/27870747
https://www.bilibili.com/video/BV1hf4y1r7C7?from=search&seid=18163173565167131040
KL散度
https://editor.csdn.net/md/?articleId=117263695(信息熵交叉熵)
https://zhuanlan.zhihu.com/p/74075915(JS散度和推土机距离没看)
https://zhuanlan.zhihu.com/p/37452654
GAN
VAE没有编码过程,那么就变成了GAN
https://kexue.fm/archives/4439(没看)
https://zhuanlan.zhihu.com/p/110707801(没看)
https://zhuanlan.zhihu.com/p/27549418
https://zhuanlan.zhihu.com/p/27870747(GAN与VAE)
https://zhuanlan.zhihu.com/p/266677860(公式解释,以及算法步骤很重要)
https://zhuanlan.zhihu.com/p/26994666(重要)
https://zhuanlan.zhihu.com/p/89267493(code)
https://zhuanlan.zhihu.com/p/72279816(code重要)
https://www.zhihu.com/question/320465400/answer/1051141660(GAN随机噪声)
https://zhuanlan.zhihu.com/p/353430409(GAN做数据增强!!!)
https://zhuanlan.zhihu.com/p/33752313(重要)
https://zhuanlan.zhihu.com/p/27536143(还没看)
并且判别器分辨不出样本是生成的还是真实的(判别概率均为0.5) ——以最终生成模型为目的 为驱动
判别器其收敛是: 判别器(真值)的概率是0.5
生成器收敛是:判别器(伪造数据)的概率是0.5
pytorch
eval 和no_grad
model.eval仍会保存动态图
no_grad 不会记录动态图
with torch.no_grad():
model.eval()
backward retain_graph
backward()调用结束后,动态计算图会被销毁,而retain_graph=True动态计算图后会被保存,还能二次调用backward()
loss gpu
通常情况下损失函数不需要放在gpu上
问题
损失降不下去