欢迎指正。
第三章 点估计
通过样本
本章主要从以下几方面来讲:一点基本概念;无偏估计及UMVUE、UMRUE;极大似然估计、矩估计、最小二乘估计、简略介绍同变估计、稳健估计。
本章主要侧重于介绍方法,点估计的性质(效、渐进性质)我们放在第四章来讲。
3.1 基本概念
设参数
3.2 无偏估计及UMVUE、UMRUE
3.2.1无偏估计
定义3.1 若
为
关于无偏估计,我们有三点需要说明:
(1)无偏估计不一定存在
我们接下来的讨论都是对可估参数而言,不可估的参数讨论其无偏估计是无意义的。
(2)对可估参数,无偏估计一般不唯一
(3)无偏估计并不一定是一个好估计
----------------------------------------------------------------------------------------------
正如上面所说,无偏估计不唯一,那么我们就想在这堆无偏估计里面找一个最好的,什么样的最好?就需要我们有一个标准(即后面说的损失函数)。依据Wald于1950年提出的统计判决理论的观点,统计推断追求的目标是对于给定的损失函数
上面这一段我们说了要用统计量
定理3.1 (Rao-Blackwell)对于分布族
必优于或等同于
上面这个定理就是告诉我们,统计判决的最优解通常就是 充分统计量的函数。
3.2.2 一致最小风险方差无偏估计(UMRUEUMVUE)
上一小节我们说要从无偏估计量里面找一个充分统计量使得风险最小,在这里给出定义。
定义3.2 对于一般凸损失函数
则称
对于损失函数
则称
到这里我们能看出来,均方误差是风险函数的一个特例。
在上一节我们给出的定理,最优解是充分统计量的函数,但仅仅如此是不够的。唯一性需要完备统计量来保证,最优性由完备统计量来保证,这里能出俩引理,就不列出了。直接给出最终版本的定理。
定理3.2(Lehmann-Scheffe)给定样本 ,设
(1)设
(2)设
(3)若
若损失函数为
3.2.3 解题方法和一个例题
在完备充分统计量和一致最小风险无偏估计存在的前提下,我们根据Lehmann-Scheffe定理,有两种求解
(1)直接方法:找一个完备充分统计量
(2)条件期望法:即取一个完备充分统计量
下面给出一个例题,用以上两种方法解,但这并不意味着这两种方法都能同时去解其他问题,有时候根据分布、问题类型要选择其中一个,这就需要做大量的练习以熟练。
例1 设
首先我们知道统计量
直接方法:找一个合适的
我们看一下它的期望
于是我们就有
条件期望法: 我们先找一个
可见
3.3 极大似然估计(MLE)
极大似然估计在直观上可以这样解释:使得出现所选样本最大概率的分布参数的估计。
定义3.3 设
则称
极大似然估计不唯一, 如服从均匀分布时,都可视为的极大似然估计,所以解不唯一。
若极大似然估计存在且唯一,则它必为充分统计量的函数。(借助因子分解定理)
关于极大似然估计的计算流程这个在本科阶段就有,因此不再赘述。有关极大似然估计的性质,我们在第四章讲。
3.4 矩估计
矩估计也叫矩方程估计,是比较老的方法,其理论基础就是独立同分布情况下的大数定律,即观察值的样本平均趋向于总体平均。
设
总体原点矩:
总体中心矩:
样本原点矩:
样本中心矩:
根据独立同分布随机变量序列的大数定律,当
3.5 最小二乘估计(LSE)
最小二乘估计常用于线性模型求解,这个在很多的计量经济课本上都有介绍。
简单来说,在一个线性模型
关于最小二乘的计算以及各种特殊情况(现实中较为常见)的处理,可以找一本线性模型的书来看。
3.6 同变估计
在一些参数估计问题中,要求寻找的估计量在样本作某种特定变换下保持某种统计性质。变换主要有三种:位移变换
定义 设
具体可见《参数统计教程》的第四章,韦博成老师专门用一章的篇幅来介绍。
3.7 稳健估计
连续性原理:如果一个方法在该模型下是最优的,则它应在该模型附近是几乎最优的。
具备这种连续性的方法称为稳健的。
稳健统计中一类常用的估计是M估计,它是Huber在1954年对极大似然估计加以引申而得出的。
定义 设
则称
若
则
上面两个公式的关系就像极大似然估计的定义和通过似然方程求解极大似然估计的关系一样。