机器学习读书笔记之2 - 最大似然估计

        最大似然法(Maximum likelihood,ML)也称为最大概率估计、极大似然估计,基本思想是:当从参数模型 y=f(m; x) 中随机抽取几组样本观测值(数据)后,最合理的参数a的估计值,应该使得从模型中抽取该观测值的概率最大。
        也就是说,我们已知结果(y1,y2,y3…),求最可能的参数值a,这里的最大可能即为 最大似然。
        举个例子,有两个外形完全相同的箱子,A箱子有99个白球,1个黑球;B箱子有99个黑球,1个白球;从一个箱子里又放回的抽样,连续抽取4次,结果是{ 黑、白、黑、黑 },那么哪个箱子的可能性最大?

        在这里 m = A | B,y1,y2,y3,y4 = { 黑、白、黑、黑 },我们能够直观得到的结论 m=B,那么过程如何推导呢?


•   离散情况

        

        根据最大概率原则,m=B。


•   连续情况

        类似,得到联合概率密度:

        

        加上一个不改变趋势的ln函数,感谢张老师拍脑袋的神奇结论,感谢ln把累乘变成了累加,由此我们得到:

        

        ok,问题变简单了,只需要使m的似然函数最大化,即求 H(m) 对应的极大值,就能得到我们估计的m值。

        那么怎么求极值呢?当然是求导,然后让导数为0,对应多个m参数就是针对每一个参数求偏导,使其=0,求解k个参数,即对应k个方程,当然这里我们有一个前提假设,那就是L(m)本身是连续可微的。

        求最大似然函数估计值的一般步骤可以概括为:

1. 写出似然函数;

2. 对似然函数求对数,并整理;

3. 求导数,另导数为0,得到似然方程;

4. 解似然方程,得到参数即为所求;

        简单起见,假设似然函数符合直线分布,即 P(x; m) = x*m1+m2,代入上面公式能够得到:

        

        另方程=0,求解m1、m2即可。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值