机器学习笔记——11 混合高斯模型(Mixtures of Gaussian):利用EM算法估计参数

机器学习笔记——11 混合高斯模型(Mixtures of Gaussian):利用EM算法估计参数

本文主要介绍混合高斯模型,它涉及到对个分布来源,因此参数的估计将是一个难题。本文着重介绍如何利用EM算法对参数进行估计。

混合高斯模型(Mixtures of Gaussian)

在我们之前接触的大部分分布中,样本数据大部分独立同分布与某个分布。但是混合高斯模型中,样本数据并不是来自一个单一的高斯分布,而是来自多个高斯分布。我们假设共有 k k k个高斯分布,如果第i个样本 x ( i ) x^{(i)} x(i)来自第j个高斯分布,记 z ( i ) = j z^{(i)} = j z(i)=j。在高斯混合模型中, p ( x ∣ z = j ) = N ( u j , Σ j ) p(x|z = j) = N(u_j,\Sigma_j) p(xz=j)=N(uj,Σj)。而参数 z z z服从多项分布 M u l t i n o m i a l ( ϕ ) Multinomial(\phi) Multinomial(ϕ)。即 z z z j j j的概率为 ϕ j \phi_j ϕj。由此我们可以导出混合高斯的边缘分布为: m ( x ) = ∑ j = 1 k p ( z = j ) p ( x ∣ z = j ) = ∑ j = 1 k ϕ j p ( x ∣ u j , Σ j ) m(x) = \sum_{j = 1}^{k}p(z = j)p(x|z = j) = \sum_{j = 1}^{k}\phi_jp(x|u_j,\Sigma_j) m(x)=j=1kp(z=j)p(xz=j)=j=1kϕjp(xuj,Σj)因此样本的对数似然函数为: ℓ ( ϕ , u , Σ ) = log ⁡ ∏ i = 1 m m ( x ( i ) ) = ∑ i = 1 m log ⁡ m ( x ( i ) ) = ∑ i = 1 m log ⁡ ∑ j = 1 k ϕ j p ( x ∣

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值