深度生成模型
文章平均质量分 92
NockinOnHeavensDoor
blog已不用~谢谢关注~
展开
-
变分自编码器记录与tensorflow代码及pytorch代码分析
Written by title date (我的github地址)zhengchu1994 《Tutorial on Variational Autoencoders》 2018-05-13生成模型生成模型,即,一个数据分布为P的模型,P的分布和Pgt(X)Pgt(X)P_{gt}(X) 几乎相似(gt应该是生成分布的意思(generat...原创 2018-05-17 15:13:11 · 2477 阅读 · 0 评论 -
条件变分自编码器CVAE
Written by title date zhengchu1994 《Tutorial on Variational Autoencoders》 2018-05-19intuition给定字符’2’,原始的VAE并不能生成数字为2的手写图像,原始的VAE直接对隐变量zzz和数据XXX建模;而CVAE对定义在条件概率下的隐变量和数据z建...原创 2018-05-19 11:16:31 · 12381 阅读 · 3 评论 -
GANs:原始生成对抗网络论文分析及tensorflow、pytorch代码解析
先给出记录的原论文笔记。- 生成式对抗网络 GAN (Generative adversarial networks):由一个生成器(generator)和一个判别器(discriminator)构成. 生成器捕捉真实数据样本的潜在分布(latent distribution), 并生成伪造的数据样本; 判别器是一个二分类器, 判别输入是真实数据还是生成的样本. 生成器和判别器在作者原文中...原创 2018-05-07 08:17:47 · 2403 阅读 · 0 评论 -
条件生成对抗网络记录与tensorflow代码及pytorch代码分析
Written by title date NockinOnHeavensDoor 《Conditional Generative Adversarial Nets》 2018-5-16 06:38:33公式及结构在GAN中的两个神经网络分别是生成器G(z)G(z)G(z) 和判别器 D(X)D(X)D(X),CGANs目的是给这两个网络都...原创 2018-05-16 08:39:52 · 1266 阅读 · 0 评论 -
InfoGAN
Written by title date zhengchu1994 《InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets》 2018-5-23 10:39:16启发在原始GAN中的两个神...原创 2018-05-24 14:50:38 · 1358 阅读 · 0 评论 -
wasserstein 距离
注明:直观理解而已,正儿八经的严谨证明看最下面的参考。Earth Mover’s Distance推土机距离的例子:有一堆土的分布是 PrPrP_r, 其随机变量是xxx,现在要求把这堆土挪动成为分布 PgPgP_g ,其随机变量是yyy(图上是PθPθP_\theta),这样做的方法很多,那么做最小功的挪动该是什么?这是一个优化问题对应着的最优解是:这里Π(Pr,Pg...原创 2018-08-25 20:47:32 · 17786 阅读 · 10 评论