学了一点贝叶斯

参考资料:《人工智能 一种现代方法》


这两天看了一点贝叶斯,随便写两句。。。


关键的基础知识:条件概率,全概率公式,贝叶斯公式


贝叶斯学习

最大后验假设(MAP)—— 对贝叶斯学习的近似,将概率求和问题转换为了最优化问题

最大似然假设(ML)—— 假设先验初始分布为等概率分布


问题从上到下依次简化。


隐变量学习:EM算法

对于贝叶斯网络

E步骤:用现有的参数值计算后验概率(期望计数)

M步骤:重新计算参数的值


M步骤往往是极大化对数似然值的结果,有时需要使用拉格朗日乘数法,简单情形就是直接求导。



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值