最近学习了机器学习中的马尔科夫链蒙特卡洛(Markov Chain Monte Carlo, 简称MCMC) 相关的知识。
主要内容包括:
【1】蒙特卡洛原则,及其应用于采样的必要性(已经发布在头条)
【2】用于求解最大似然、近似推断、期望问题的经典采样算法:Metropolis-Hastings,Rejection,Importan,Metropolis和Gibbs算法。(本文属于此部分)
【3】马尔可夫链各个性质在蒙特卡洛采样问题中的应用,包括同质性,平移不变性
—————【2】—————
上一篇【2.2】中详细讨论了EM优化算法的推导和性质,EM算法通过不断提高下界来逼近最大似然,其中E步求Q(z)=p(z|x,θ),此时的θ是上一个M步已经固定的,求得此θ对应的最大下界的Q(z),更新Q(z)。M步固定Q(z),求得此时使得下界最大的θ,更新θ,如此迭代,直到收敛到局部最优,得到最终估计值。
![d2a1c4e6d87e436f82c149fbaaf97825.png](https://i-blog.csdnimg.cn/blog_migrate/ed845dcc87050dbf4c05f444e6031bd9.jpeg)
图中L(q,θ)为下界,
M步中对L最大化求新θ,等价于求使得Q(θ,θold)最大的θ值。因此,如果此后验概率p(z|x,θ)不能用分析式直接求得,可以用采样的方法近似之。Q(θ&#x