流行的EM算法收敛证明声称:Q和混合模型的似然度是正相关的,M-step最大Q, E-step不减Q, 所以重复M-step和E-step就能收敛。 但是我的研究发现,E-step可能减小Q, 而且在某些情况下, Q应该减小。一个反例如下图:
新的理论认为,E-step的作用是减小香农互信息-但是不够, 还需要调整混合比例,改进的M-step作用是增加语义互信息。不断最小化(香农互信息-语义互信息)就可以实现混合模型全局收敛。
怎样改进EM算法实现全局收敛? 详细见 http://www.survivor99.com/lcg/CM/Recent.html