机器学习
文章平均质量分 93
zeronose
这个作者很懒,什么都没留下…
展开
-
变分自编码器(VAE)(二)
上篇文章是VAE的第一部分,主要介绍了VAE的一些相关知识,VAE的由来,还有VAE的主要模型结构之类的。下面介绍的是VAE的公式推导,十分的重要。三、VAE公式推导在进行公式推导之前,先介绍一下预备知识。首先,VAE是一个生成模型,准确的说它是深度概率生成模型。概率生成模型关心样本的分布,对样本分布本身进行建模。其次,VAE是隐变量模型,隐变量模型是存在隐变量z,其中GMM也是一个隐变量模型,GMM中也存在隐变量z。VAE的生成样本是由隐变量z生成的,如VAE原文中的图模型所示:最原创 2022-01-24 03:07:48 · 6170 阅读 · 0 评论 -
变分自编码器(VAE)(一)
前言说来惭愧,VAE接触很久了,一直想把VAE好好的总结一下,一直拖到现在。闲话少说,关于VAE的文章网上也有不少,解释的最好最清楚的还是苏剑林老师的这篇文章文章链接,还有B站白板推导系列中关于变分推断跟变分自编码器链接。大家可以多看看这两个资料,或者直接看我这次的总结肯定也不错的。一、理解VAE前需要了解的知识点1.极大似然估计关于极大似然估计可以看我这篇文章,理解极大似然估计的原理,因为VAE中也用到了极大似然估计的原理。https://blog.csdn.net/zeronose/原创 2022-01-24 02:17:07 · 13121 阅读 · 2 评论 -
从极大似然估计到EM算法
文章目录前言一、为什么要用EM算法?二、EM算法三、EM算法公式推导总结前言之前已经说过极大似然估计问题,链接在这,自行查看,极大似然估计就是利用极大似然的原理去解决概率生成模型的参数估计问题,像之前文章中举得对全国人们身高进行估计的例子,就是假设全国人民身高服从高斯分布,已知条件是抽样的n个人的身高,然后利用极大估计去求解这个高斯分布的均值和方差,然后得出答案。一、为什么要用EM算法?前言中已经简单回顾了一下极大似然估计,那么为什么要有EM算法呢?或者说EM算法是用来干什么的呢??其实EM算原创 2022-01-13 11:21:03 · 1547 阅读 · 0 评论 -
极大似然估计
重新梳理一下,之前对极大似然估计的看法还是太浅了。极大似然估计比较简单,关键是弄清思想。文章目录前言一、极大似然原理二、解决的问题总结前言之前说到极大似然估计,就会直接举例子说明,例如之前的文章关于GMM中的数学基础中就提到过。例一,有两个完全一样的箱子,箱子甲中有99个黑球,1个白球,箱子乙中有99个白球,1个黑球。随意取一个球,结果为黑球,问黑球是从哪个箱子中取出的?关于这个例子,人们猜测是从甲箱子中取出的。因为同样是100个球,但是甲箱子中有99个黑球,而乙箱子中有1个黑球。所以猜测更有可原创 2022-01-11 21:20:40 · 1964 阅读 · 0 评论