LDA中的variational EM 跟EM

本文探讨了LDA模型中变分EM算法与传统的EM算法的区别与联系。两者都基于最大似然估计(MLE),变分EM主要估计α和β参数,而EM算法则涉及θ和z的估计。尽管目标都是最大化似然函数,但变分EM不采用MAP或贝叶斯推断,而是使用MLE;相比之下,贝叶斯推断常见于Gibbs采样中,而MAP估计常用于稀疏主题编码。
摘要由CSDN通过智能技术生成

variational EM:
http://net.pku.edu.cn/~zhaoxin/vEMLDA.pdf

EM:
http://www.cnblogs.com/biyeymyhjob/archive/2012/07/21/2603020.html

估计方法都是用的MLE, variational EM 估计 α β (对应EM中的 z ),而实际上也要求的是θ z 隐变量(对应EM中的z)。
目标都是最大化似然函数。

EM既可以求参数也可以求隐变量

注意:
- variational EM 不是用的MAP 和 Bayesian Inference,而是用的MLE
- Bayesian Inference 是gibbs sampling用的
- MAP 是Sparse topic coding用的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值