EM算法
用Y表示观测随机变量的数据,Z表示隐随机变量的数据,Y和Z连在一起成为完全数据,观测Y又称为不完全数据。假设给定观测数据Y,其概率分布是 P(Y|θ) ,其中 θ 是要估计的模型参数,完全数据的对数似然函数为 logP(Y,Z|θ) ,EM算法通过迭代求对数似然函数的极大似然估计,每次迭代包括两步:E步,求期望;M步,求极大化。
算法步骤如下:
1.选择参数的初值 θ(0) ,开始迭代
2.E步:记 θ(i) 为第i次迭代参数 θ 的估计值,在第i+1次迭代的E步,计算
Q(θ,θ(i))=EZ[logP(Y,Z)|Y,θ(i)]
3.M步:求使 Q(θ,θ(i)) 极大化的 θ ,确定第i+1次的迭代参数估计值