极大似然估计MLE 的理解及代码

极大似然估计

一、离散型统计模型
L ( θ ) = ∏ i = 1 n P θ ( X i = x i ) \boldsymbol{L}\left( \boldsymbol{\theta } \right) =\prod_{\boldsymbol{i}=1}^{\boldsymbol{n}}{\boldsymbol{P}_{\boldsymbol{\theta }}}\left( \boldsymbol{X}_{\boldsymbol{i}}=\boldsymbol{x}_{\boldsymbol{i}} \right) L(θ)=i=1nPθ(Xi=xi)
二、连续型统计模型
L ( θ ) = ∏ i = 1 n P θ ( X i = x i ) \boldsymbol{L}\left( \boldsymbol{\theta } \right) =\prod_{\boldsymbol{i}=1}^{\boldsymbol{n}}{\boldsymbol{P}_{\boldsymbol{\theta }}}\left( \boldsymbol{X}_{\boldsymbol{i}}=\boldsymbol{x}_{\boldsymbol{i}} \right) L(θ)=i=1nPθ(Xi=xi)
在这里插入图片描述
似然函数的直观意义就是:利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值寻 θ \theta θ
那么要怎么寻找与数据的匹配程度呢?

这里举一个例子:假设一个盒子里有10个球,3个白球,7个红球,进行有放回的抽取,那么我们可以知道抽到白球的概率 θ \theta θ为3/10,抽到红球的概率为7/10。但是这里只是我们的直觉,我们的直观的感受,但是我们要找到一个理论来描述我们这个直觉,那应该怎么做呢?这就用到了极大似然估计。

x白球红球
p θ \theta θ1- θ \theta θ

这里假设一共有n个球,其中白球有 n 1 n_1 n1个,红球有 n 2 n_2 n2个,那么我们的直觉告诉我们
直觉 θ \theta θ= n 1 n_1 n1/n

那么带到公式里面去,就得到:
L ( θ ) = θ n 1 ( 1 − θ ) n 2 \boldsymbol{L}\left( \boldsymbol{\theta } \right) =\boldsymbol{\theta }^{\boldsymbol{n}_1}\left( 1-\boldsymbol{\theta } \right) ^{\boldsymbol{n}_2} L(θ)=θn1(1θ)n2
好,现在似然函数写出来了,我们就要寻找使 L ( θ ) L(\theta) L(θ)取得最大(最趋近于1的时候)的时候 θ \theta θ的取值,这里就用到高数里的求偏导。
但是这个式子是相乘的求偏导比较复杂,我们取对数,使其转成相加的就更好求导。
ln ⁡ ( L ( θ ) ) = ln ⁡ ( θ n 1 ( 1 − θ ) n 2 ) \ln \left( \boldsymbol{L}\left( \boldsymbol{\theta } \right) \right) =\ln \left( \boldsymbol{\theta }^{\boldsymbol{n}_1}\left( 1-\boldsymbol{\theta } \right) ^{\boldsymbol{n}_2} \right) ln(L(θ))=ln(θn1(1θ)n2)
ln ⁡ ( L ( θ ) ) = n 1 ln ⁡ θ + n 2 ln ⁡ ( 1 − θ ) \ln \left( \boldsymbol{L}\left( \boldsymbol{\theta } \right) \right) =\boldsymbol{n}_1\ln \boldsymbol{\theta }+\boldsymbol{n}_2\ln \left( 1-\boldsymbol{\theta } \right) ln(L(θ))=n1lnθ+n2ln(1θ)
d ln ⁡ ( L ( θ ) ) d θ = n 1 θ − n 2 1 − θ = 0 \frac{\boldsymbol{d}\ln \left( \boldsymbol{L}\left( \boldsymbol{\theta } \right) \right)}{\boldsymbol{d\theta }}=\frac{\boldsymbol{n}_1}{\boldsymbol{\theta }}-\frac{\boldsymbol{n}_2}{1-\boldsymbol{\theta }}=0 dθdln(L(θ))=θn11θn2=0
θ ^ = n 1 n 1 + n 2 = n 1 n \boldsymbol{\hat{\theta}}=\frac{\boldsymbol{n}_1}{\boldsymbol{n}_1+\boldsymbol{n}_2}=\frac{\boldsymbol{n}_1}{\boldsymbol{n}} θ^=n1+n2n1=nn1

那么这里就得出 θ \theta θ与我们的取直觉相符合了

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值