![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
VAE
ZLBryant
这个作者很懒,什么都没留下…
展开
-
Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations学习与理解
这篇论文是ICML2019两篇best paper之一,针对无监督解耦进行了分析,从理论上证明无监督解耦是不可能的,虽然知乎上存在一些对这篇论文的负面评论,但个人感觉还是对解耦这个概念理解不一致造成的,单从这篇论文中对解耦的理解,我觉得这篇文章的工作是很有意义的。下面内容仅是个人理解,难免有失偏颇,欢迎指正。 1 解耦表示 首先简单介绍一下解耦这个概念,并没有一个统一的定义,β−VAE\beta-VAEβ−VAE中有提到:A disentangled representation can be define原创 2020-07-14 18:26:10 · 1086 阅读 · 5 评论 -
VAE学习与理解
VAE假设隐变量z服从正态分布,解码器阶段让隐变量z去生成x服从的正态分布的参数μ,σ\mu ,\sigmaμ,σ,并让μ\muμ与样本x越接近越好,因为均值是样本的概率最大。 编码器阶段则使得x生成的隐变量尽量落在z服从的正态分布上 之所以要落在z的正态分布上,就是想以后可以直接从这个正态分布上取一个向量,然后去生成新的样本,这也正是VAE与之前auto-encoder的区别所在,VAE强制让encoder的编码结果服从一个分布,以后便可以通过该分布进行采样以生成新样本,而之前的auto-encoder由原创 2020-06-11 20:37:37 · 1307 阅读 · 1 评论