再论EM算法的收敛性和K-Means的收敛性

本文探讨EM算法的收敛性,通过极大似然估计和Jensen不等式进行推导,并阐述使等号成立的条件。同时,分析K-Means算法在EM框架下的收敛性,说明E-Step和M-Step如何确保收敛,以及其目标函数和更新规则。
摘要由CSDN通过智能技术生成

标签(空格分隔): 机器学习


(最近被一波波的笔试+面试淹没了,但是在有两次面试时被问到了同一个问题:K-Means算法的收敛性。在网上查阅了很多资料,并没有看到很清晰的解释,所以希望可以从K-Means与EM算法的关系,以及EM算法本身的收敛性证明中找到蛛丝马迹,下次不要再掉坑啊。。)

EM算法的收敛性

1.通过极大似然估计建立目标函数:

l(θ)=mi=1log p(x;θ)=mi=1logzp(x,z;θ)

通过EM算法来找到似然函数的极大值,思路如下:
希望找到最好的参数 θ ,能够使最大似然目标函数取最大值。但是直接计算 l(θ)=mi=1logzp(x,z;θ) 比较困难,所以我们希望能够找到一个不带隐变量 z 的函数 γ(x|θ)l(x,z;θ) 恒成立,并用 γ(x|θ) 逼近目标函数。
如下图所示:
此处输入图片的描述

  • 在绿色线位置,找到一个 γ 函数,能够使得该函数最接近目标函数,
    • 固定 γ 函数,找到最大值,然后更新 θ ,得到红线;
  • 对于红线位置的参数 θ
    • 固定 θ ,找到一个最好的函数 γ ,使得该函数更接近目标函数。
      重复该过程,直到收敛到局部最大值。

2. 从Jensen不等式的角度来推导

Qi z 的一个分布, Qi0 ,则:

l(θ)=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值