EM聚类-课堂笔记

EM聚类也被叫成最大期望算法

具体的实现步骤主要为三步:

  • 初始化参数
  • 观察预期
  • 重新估计

EM算法的工作原理

假设一个例子

image-20210808184919346

image-20210808184958196

image-20210808185026379

image-20210808185044708

image-20210808185105245

EM聚类的工作原理

就是把潜在类别当做隐藏变量,样本看做观察值,就可以把聚类问题转化为参数估计问题。这也就是EM聚类的原理

相比于K-means算法,EM聚类更加灵活,因为K-means是通过距离来区分样本之间的差别的,且每个样本在计算的时候只能属于一个分类,称之为硬聚类算法,而EM聚类在求解的过程中,实际上每个样本都有一定的概率和每个聚类相关,叫做软聚类算法

EM算法可以理解成一个框架,在这个框架中采用了不同的模型来用EM进行求解。常用的EM聚类有GMM高斯混合模型和HMM隐马尔科模型。

一般我们可以假设样本是符合高斯分布的,每个高斯分布都属于这个模型的组成部分,要分成K类就相当于是K个组成部分。这样我们可以先初始化每个组成部分的高斯分布的参数,然后再看来每个样本是属于哪个组成部分,这也就是E步骤,再通过得到的这些隐含变量结果,反过来求每个组成部分高斯分布的参数,既M步骤。反复EM步骤,直到每个组成部分的高斯分布参数不变为止

总结

EM聚类和K-means聚类的相同之处和不同之处

相同点:

  1. EM,K-means,都是随机生成预期值,然后经过反复调整,获取最佳结果
  2. 聚类个数清晰

不同点:

  1. EM是计算概率,K-means是计算距离
  2. 计算概率,概率只要不为0,都有可能既样本是每一个类别都有可能
    ,K-means是计算距离
  3. 计算概率,概率只要不为0,都有可能既样本是每一个类别都有可能
  4. 计算距离,只有近的才有可能,既样本只能属于一个类别
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

有猫腻妖

你的鼓励是我更新的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值