极大似然估计的定义和流程

在这一篇文章中,我们来回答两个问题。

  1. 极大似然估计是做什么的?
  2. 极大似然做的流程是怎么样的?

极大似然估计是做什么的?
(记得,极大似然估计和朴素贝叶斯是不同的
在我们的日常生活中,我们可能会采样到一个数据集。
这个数据集有自己的分布, p ( y ∣ x 1 , x 2 , x 3 , θ ) p(y|x_1,x_2,x_3,\theta) p(yx1,x2,x3,θ)

举一个最简单的例子:
从一个学校中的男生中挑出100个样例,这写男生有高有矮,我们知道他们的身高。
现在我们想做什么事儿呢?我们想知道整体的概率的分布,也就是说,用这100个样例,来估算出整体的概率。

那这事儿该怎么做呢?
我们会意识到,在整个过程中,每一次采样我们都是独立采样的,而每一次采样,我们获得的是 p ( y ∣ θ ) p(y|\theta) p(yθ)
那么理论上,整体的概率分布该用如下方法计算:
L ( θ ) = p ( y 1 ∣ θ ) p ( y 2 ∣ θ ) p ( y 3 ∣ θ ) p ( y 4 ∣ θ ) … … L(\theta)=p(y1|\theta)p(y2|\theta)p(y3|\theta)p(y4|\theta)…… L(θ)=p(y1θ)p(y2θ)p(y3θ)p(y4θ
在该过程之后,我们意识到,想要获得最好的结果,那就应该使 L ( θ ) L(\theta) L(θ)最大。这就意味着,这个过程就是最优化 p ( y ∣ θ ) p(y|\theta) p(yθ)的过程。
对于 L ( θ ) = p ( y 1 ∣ θ ) p ( y 2 ∣ θ ) p ( y 3 ∣ θ ) p ( y 4 ∣ θ ) … … L(\theta)=p(y1|\theta)p(y2|\theta)p(y3|\theta)p(y4|\theta)…… L(θ)=p(y1θ)p(y2θ)p(y3θ)p(y4θ我们加上log也没什么副作用,因为在0-1,无论是log(x),还是x,都是单调的。所以 L ( θ ) = l o g ( p ( y 1 ∣ θ ) ) + l o g ( p ( y 2 ∣ θ ) + + l o g ( p ( y 3 ∣ θ ) ) + l o g ( p ( y 4 ∣ θ ) ) … … L(\theta)=log(p(y1|\theta))+log(p(y2|\theta)+ + log(p(y3|\theta)) + log(p(y4|\theta))…… L(θ)=log(p(y1θ)+logp(y2θ)++log(p(y3θ))+log(p(y4θ)
然后是求导数,使得导数为0,最后解方程,得到最后的结果。


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值