EM,VB,Gibbs Sampling解高斯混合模型

本文详细介绍了高斯混合模型及其参数估计方法,包括EM算法、贝叶斯高斯混合模型、变分推断(VBEM)、变分EM(VEM)和Gibbs Sampling。讨论了在不同方法中如何处理后验概率,并阐述了VB与Gibbs Sampling之间的联系。
摘要由CSDN通过智能技术生成

高斯混合模型

假设数据产生过程如下:
z ∼ M u t ( π ) z \sim Mut(\pi) zMut(π)
x ∣ z ∼ N ( μ z , σ z 2 ) x|z \sim N(\mu_z,\sigma_z^2) xzN(μz,σz2)
θ = { π , μ 1 , . . . , μ K , σ 1 , . . . , σ K } \theta = \{\pi,\mu_1,...,\mu_K,\sigma_1,...,\sigma_K\} θ={ π,μ1,...,μK,σ1,...,σK}为这个模型的所有参数
观察数据为 D = { x i } N D=\{x_i\}_N D={ xi}N
采用极大似然估计参数 θ \theta θ
l o g ( p ( D ; θ ) ) = ∑ i = 1 N l o g ( p ( x i ; θ ) ) log(p(D;\theta))=\sum_{i=1}^Nlog(p(x_i;\theta)) log(p(D;θ))=i=1Nlog(p(xi;θ))
在这里插入图片描述

EM算法

直接对上述结果进行优化,由于高斯分布的参数形式比较复杂,并不是那么好计算。
注意到
l o g ( p ( D ; θ ) ) = ∑ i = 1 N l o g ( p ( x i ; θ ) ) = ∑ i = 1 N l o g ( ∑ z i = 1 K p ( x i , z i ; θ ) ) = ∑ i = 1 N l o g ( ∑ z i = 1 K Q ( z i ) p ( x i , z i ; θ ) Q ( z i ) ) ≥ ∑ i = 1 N ∑ z i = 1 K Q ( z i ) l o g ( p ( x i , z i ; θ ) Q ( z i ) ) log(p(D;\theta))=\sum_{i=1}^Nlog(p(x_i;\theta))\newline =\sum_{i=1}^Nlog\left (\sum_{z_i=1}^K {p(x_i,z_i;\theta)} \right)\newline =\sum_{i=1}^Nlog\left (\sum_{z_i=1}^K Q(z_i)\frac{p(x_i,z_i;\theta)}{Q(z_i)} \right)\newline \geq \sum_{i=1}^N\sum_{z_i=1}^K Q(z_i)log \left (\frac{p(x_i,z_i;\theta)}{Q(z_i)} \right) log(p(D;θ))=i=1Nlog(p(xi;θ))=i=1Nlog(zi=1Kp(xi,zi;θ))=i=1Nlog(zi=1KQ(zi)Q(zi)p(xi,zi;θ))i=1Nzi=1KQ(zi)log(Q(zi)p(xi,zi;θ))
最后一步就是Jenssen不等式
注意到,当Jenssen不等式取等号时:
p ( x i , z i ; θ ) Q ( z i ) = c      for any  z i \frac{p(x_i,z_i;\theta)}{Q({z_i})}=c \text{ \ \ \ \ for any $z_i$} Q(zi)p(xi,zi;θ)=c     for any zi
只有 Q ( z i ) = p ( z i ∣ x i ; θ ) Q(z_i )=p(z_i|x_i;\theta) Q(zi)=p(zixi;θ)时,这个式子才是成立的
这样可以采用坐标上升法去求得最优的 Q ( z i ) Q(z_i) Q(zi) θ \theta θ
E-step:
固定 θ ,最优化 Q ( z i )  :  Q ( z i ) = p ( z i ∣ x i ; θ ) \text{固定$\theta$,最优化$Q(z_i)$ : }\\ Q(z_i)=p(z_i|x_i;\theta) 固定θ,最优化Q(zi) : Q(zi)=p(zi

  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Collapsed Gibbs sampling(坍塌吉布斯采样)是概率图模型(如隐马尔可夫模型、贝叶斯网络等)中的一种参数化采样方法,它主要用于那些有大量潜在变量(通常是高维或无限维)的情况。在这些模型中,直接估计所有潜在变量的后验分布通常是计算上非常困难的,因为它们可能涉及到大量的联合概率。 在Collapsed Gibbs sampling中,主要思想是将原问题中的某些变量(通常是那些条件独立的或可以被整合掉的)“坍塌”成一些更易于处理的统计量,从而简化了后验分布。这个过程通常涉及到两个步骤: 1. **整合(Collapsing)**: 对于一些不需要详细估计的变量,我们计算其对模型参数的影响,并将其结果表示为一个常数或一个函数,而不是保留原始的随机变量。这使得后验分布只依赖于少数关键参数和剩下的变量。 2. **采样Sampling)**: 使用整合后的后验分布,我们进行采样,通常是从条件分布中抽取新的值,这些条件分布只依赖于当前状态下的其他变量。这是一个迭代的过程,在每次迭代中,都会更新一部分变量的值,直到达到收敛或达到预设的迭代次数。 这种采样方法的优势在于它可以避免直接计算难以处理的联合分布,提高了计算效率。然而,它的缺点是整合过程可能复杂,且对于复杂的模型,找到正确的坍塌形式可能并不直观。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值