极大似然、朴素贝叶斯、EM算法

极大似然估计

从最大似然到EM算法浅解_zouxy09的专栏-CSDN博客_最大似然

1、写出似然函数:联合概率分布

2、似然函数处理:比如取对数

3、获得似然方程:求导数,令导数=0

4、解似然方程,获得模型参数。

PS:回顾神经网络中loss function的定义,一般都是-log(loss)形式的函数,实际上也是对训练样本进行了极大似然估计,只不过求解参数的方式不能是令导数=0,只能通过求偏导,然后梯度下降来近似求的最优解或者局部最优解。同时,由于loss一般是大于1的数值,因此会在log前面加负号。

朴素贝叶斯

EM算法

(EM算法)The EM Algorithm - JerryLead - 博客园

参考《统计学习方法》--李航--第九章

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值