EM算法包括前面的E-step和M-step。EM算法想要解决的就是,给定一堆数据点,有一个模型,这个模型的参数是未知的,我们想要用最大似然的方法来估算出模型的参数。直接计算比较难,所以引入一个latent variables Z,Z就是一个点属于哪一个类的概率,P(z)就是一个点属于哪一个类的概率。第一步E-step,固定,算latent variables的概率,也就是GMM里面的后验概率。第二步M-step,构造Q函数,是关于Z概率的对数函数的期望值,最大化Q函数可以间接的去最大化我想要目标函数P(x|) ,最大化Q函数后就得到一个新的,把它复制到旧的里面,然后重复E-step.M-step。
GMM回顾
同理,有
求得期望值
优化结果
总结:1直接用最大似然去优化函数,2EM算法:构造Q,优化Q函数。