gmm中隐变量是什么的_机器学习-隐变量模型和期望最大算法

目录

1 隐变量模型

1.1 隐变量模型意义

1.2 高斯混合模型 GMM

1.3 其他模型(应用)

2 期望最大算法(EM)

2.1 EM算法意义

2.2 EM算法推导

2.3 EM算法

2.4 EM收敛性

3 隐变量模型和EM算法的应用

3.1 隐变量模型应用

3.2 EM应用和可求解的问题

符号:观测变量

equation?tex=x ,隐含变量

equation?tex=z

1 隐变量模型

1.1 隐变量模型意义

对于一些问题,直接使用观测的变量建模会导致问题过于复杂,或者无法得到很好的结果。但是,隐变量可以可以为部分问题提供一个很好的作为观测数据和目标结果之间的桥梁。

1.2 高斯混合模型 GMM

高斯混合模型就是由多个高斯模型组合在一起的混合模型(可以理解为多个高斯分布函数的线性组合,理论上高斯混合模型是可以拟合任意类型的分布),例如对于下图中的数据集如果用一个高斯模型来描述的话显然是不合理的:

(EM算法的一个重要应用场景就是高斯混合模型的参数估计。)

两个高斯模型可以拟合数据集,如图所示:

相关分布

观测数据是在某个隐含变量条件下的高斯分布

equation?tex=x%5E%7B%28i%29%7D+%7C+z%5E%7B%28i%29%7D%3Dj+%5Csim+%5Cmathcal%7BN%7D%5Cleft%28%5Cmu_%7Bj%7D%2C+%5CSigma_%7Bj%7D%5Cright%29

隐含变量满足多项分布

equation?tex=z%5E%7B%28i%29%7D+%5Csim+%5Ctext+%7B+Multinomial+%7D%28%5Cphi%29

equation?tex=p%5Cleft%28z%5E%7B%28i%29%7D%3Dj%5Cright%29%3D%5Cphi_j

完全数据满足概率

equation?tex=p%5Cleft%28x%5E%7B%28i%29%7D%2C+z%5E%7B%28i%29%7D%5Cright%29%3Dp%5Cleft%28x%5E%7B%28i%29%7D+%7C+z%5E%7B%28i%29%7D%5Cright%29+p%5Cleft%28z%5E%7B%28i%29%7D%5Cright%29

高斯混合模型

equation?tex=%5Cbegin%7Baligned%7D+%5Cell%28%5Cphi%2C+%5Cmu%2C+%5CSigma%29+%26%3D%5Csum_%7Bi%3D1%7D%5E%7Bm%7D+%5Clog+p%5Cleft%28x%5E%7B%28i%29%7D+%3B+%5Cphi%2C+%5Cmu%2C+%5CSigma%5Cright%29+%5C%5C+%26%3D%5Csum_%7Bi%3D1%7D%5E%7Bm%7D+%5Clog+%5Csum_%7Bz%5E%7B%28i%29%7D%3D1%7D%5E%7Bk%7D+p%5Cleft%28x%5E%7B%28i%29%7D+%7C+z%5E%7B%28i%29%7D+%3B+%5Cmu%2C+%5CSigma%5Cright%29+p%5Cleft%28z%5E%7B%28i%29%7D+%3B+%5Cphi%5Cright%29+%5Cend%7Baligned%7D

1.3 其他模型(应用)

K-Means, Probablistic PCA (降维)

CS229中的例子, Prof. Andrew Ng以 Anomaly Detection 异常检测为例子,使用GMM模型判断一个异常点是否在GMM整体概率低的地方

2 期望最大算法(EM)

2.1 EM算法引入

对于参数估计我们一般使用MLE,但是对于带有隐变量的模型,如下似然中隐变量

equation?tex=z 和参数

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值