白话机器学习算法(十一) GMM

http://blog.csdn.net/wangxin110000/article/details/22524075

GMM就是高斯混合模型,用GMM去聚类的话,就变成了一个似然估计的问题,估计的参数就是选取每个高斯部件的概率,每个高斯各自的均值方差;

我们可以把实际数据看做由这个GMM随机数生成器产生的,N个数据就是N个观测值,数据之间独立;

根据数据找出这个模型的参数,有了模型参数,我就能简单的算出数据属于哪个高斯部件的概率最大,论文中一般都说responsibility,所以用高斯混合模型来聚类,实质就是一个参数估计问题,EM算法就是专门干这个的;

HMM也是一个参数估计问题,而且HMM跟GMM有很大的相似;

总的来说,基于概率的聚类  用到的就是两个东西 MAP(比如贝叶斯) MLE(这个就很多了,GMM GTM都是这样的),;其他的还有ME(最大熵),ICA的一种方法就是基于最大熵模型得出统计独立的各个分量;

 

关于EM算法,以后专门详细讨论 .

如果将GMM稍微推广下,加上一点约束,就是假定这些高斯中心位于高维空间的一个流形上,就可以把这些高斯中心映射到一个低维隐空间,我就可以将实际的数据通过后验概率映射到那个隐空间坐标上,实现数据降维,或者数据可视化,这就是GTM算法,这个算法可以在低维空间保持数据的拓扑有序,但是这个保证需要实际数据满足上面的那个假设,就是假定这些高斯中心位于高维空间的一个流形上,隐空间的维度是这个流形的本质维度才行,如果不满足,就不能完全保证这些数据的拓扑有序;


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值