![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
贝叶斯机器学习笔记
本专栏主要围绕Bayesian Methods for Machine Learning (by National Research University Higher School of Economics) 课程展开,记录自己的学习,分享自己的笔记,也借着平台督促自己。欢迎大家批评指正!
meganyj
这个作者很懒,什么都没留下…
展开
-
2-2 混合高斯模型Gaussian Mixture Model
2-2 混合高斯模型Gaussian Mixture ModelGMM模型介绍训练GMM模型引入隐含变量tEM方法训练GMM模型 GMM模型介绍 GMM可以描述为: 训练目标: 并且满足: 在限制条件下,不适合采用随机梯度下降Stochastic Gradient Descent,很难保证Σ_k≻0恒大于0。下面采用期望最大化方法Expectation Maximization。 训练GMM模型 引入隐含变量t 在这里我们引入隐含变量t,如下图。根据该模型可得, EM方法训练GMM模型 1)如何估原创 2020-05-15 12:20:19 · 343 阅读 · 0 评论 -
2-1 隐含变量模型介绍
Latent Variable Models隐含变量模型介绍小结聚类分类类别软分类超参数数据生成小结 隐含变量模型 介绍 相对于标准的回归模型来说,隐含变量模型具有以下两个优点:1)可以描述丢失的信息;2)可以对预测进行不确定性描述。其中,隐含变量是不可观测的变量,比如人的健康。人的体重身高都是可测量的,但是人的健康是不可观测的。 假设某公司需要从应聘者筛选出参加现场面试的人选,他将从高中成绩,大学成绩,IQ分数,电话面试情况进行判断,如下图所示。为了有效描述missing data以及提供预测的不确定性,原创 2020-05-13 12:13:40 · 1420 阅读 · 0 评论