极大似然估计_矩估计和极大似然估计

本文介绍了数理统计中的两种基本参数估计方法——矩估计和极大似然估计。矩估计通过样本矩来估计总体矩,简单易行,但可能不是最有效的方法。极大似然估计寻找使样本出现概率最大的参数,虽然计算可能复杂,但在大样本下具有更高的效率。在实际应用中,极大似然估计更为广泛,尤其在机器学习中的EM算法便是其典型应用。
摘要由CSDN通过智能技术生成

由于知乎的公式编辑器我实在用不习惯,暂时没有公式,相关的公式和定理证明后续会再更新。很久没有写过东西,写了大概也不会有人看。但是最近有打算整理一下数理统计的知识,所以逐渐写一些相关的东西放在专栏里。今天就大概说说点估计的两个基本方法和一些它们的比较。

一、矩估计

矩估计是一种十分直观的估计方法,设

是简单随机样本(独立同分布),则可以用样本矩估计总体矩,由此获得一个关于总体分布参数的一个方程组,解之可得矩估计。矩估计的基本思路在于,样本原点矩是总体原点矩的无偏估计,如果存在的话。样本中心矩经过一些简单的调整也可以使之无偏。

二、极大似然估计

所谓极大似然估计,就是找到一个得到观测样本的“看起来最像”的参数。似然函数与样本的联合概率函数在形式上是一致的,只是看法不同。概率函数将待估参数θ视为给定,其取值解释为,获取当前样本的概率(密度);而似然函数则视样本数据为给定,其取值则被解释为样本来自某个θ决定的分布的“可能性”,“可能性”最大的那个θ,自然就是真实参数的极大似然估计。实际应用中,为了处理方便,常常对似然函数取对数,得到对数似然函数,对数似然函数和似然函数在同一位置取到最大值。这样,极大似然估计实际上就是求目标函数最大值的最优化问题(有可能是有约束的,也有可能是无约束的),有时候这个解需要使用数值方法找到。事实上,机器学习中常用的EM算法就是一种特殊的求极大似然估计的数值方法。

三、两种基本估计方法的对比

矩估计是一种相对简单的估计方法,只要矩估计可以使用,它的计算一般比极大似然估计要简单。除此之外,矩估计使用的限制也相对较少,在极大似然估计的情况下,要求概率函数必须有解析表达式,也要求待估参数θ必须取值在欧氏空间,而对于矩估计,此类限制并不存在。

但事实上,极大似然估计是更受重视的,也是应用范围更广泛的。具体原因则要涉及到大样本理论。简单来说,矩估计在大样本情况下一般是渐进正态的,极大似然估计在一定的条件下也是渐进正态的,但就估计的渐进效率(可以理解为随样本量增加,估计的精确度增加的程度)而言,极大似然估计有最高的渐进效率,而矩估计除了少数一些情况下,很少能达到最高渐进效率,这也是我们说极大似然估计优于矩估计的原因。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值