估计——一般最小方差无偏估计

- 回顾

前面一直在讲述估计量的有效性(CRLB,线性模型),而没有提到假如估计量的方差没有达到CRLB,即是有效估计量不存在,但能够求出MVU估计量(假定存在)仍然是一个重要的事(可参考文章中的图片https://blog.csdn.net/GongPF/article/details/88715517)。因此,就提出了一般MVU估计。

 

- 主要使用的概念和方法

- 充分统计量(Sufficient statistic)

- RBLS定理(Rao-Blackwwell-Lehmann-Scheffe)

 

- 理解充分统计量

- 知乎:https://www.zhihu.com/question/41367707

- 一篇不知名的不知作者的文章描述:

          

- 这里举个例子:x[n]=A +w[n],    估计参数 A,w[n]是WGN,则可求出样本均值是MVU估计量

                                                                    \hat{\theta }=\frac{1}{N}\sum_{n=0}^{N-1}x[n]

假设,这里选择  \check{A}=x[0] 作为估计量,那么可以看出\check{A }是无偏的,它的方差要比\hat{A }大。 直观的理解:较差的性能是由于放弃了数据 \left \{ x[1],x[2],...,x[N-1] \right \} 而导致的直接结果,这些信息携带了有关要估计参数A 的信息。

这样就产生了这样的问题:哪些数据与估计问题(估计参数)有关?

- 对于上述关于A 估计问题,一旦知道了 \frac{1}{N}\sum_{n=0}^{N-1}x[n],就不需要单个的数据值,因为关于参数A的所有的信息都已经包含在这个充分统计量中。详细解释如下:

考虑数据的PDF为(需要估计A)

                                             

假定已经观测到统计量T(x)                          

                                                   T(x)=\frac{1}{N}\sum_{n=0}^{N-1}x[n]=T_{0}

这个统计量的知识将把数据的PDF改变为条件PDF,即

                                                                

由于统计量是估计参数A的充分统计量,这个条件PDF就应该与估计参数 A 无关。因此,要证明统计量是充分的,就必须确认对应的条件PDF,并且确定它与估计参数无关。如下图所示:

                        

计算条件PDF是比较难的事,所有需要一种更为简单的方法,下面就讲解Neyman-Fisher分解原理——一种寻找充分统计量的简单方法。

 

- Neyman-Fisher分解

- Neyman-Fisher 因子分解:若能将PDF p(x;\theta )分解为

                                                        p(x;\theta )=g(T(x),\theta )h(x)

其中 g 只是通过 T(x) 才与 x 有关的函数;而 h 只是 x 的函数,那么 T(x) 是 \theta 的充分统计量。反之,如果 T(x) 是 \theta 的充分统计量,那么数据PDF p(x;\theta ) 可以分解为上式形式。

例如:考虑 x[n]=\theta +w[n],    参数 \theta=0,w[n]~N(0,\sigma^{2}),但是参数 \sigma ^{2} 为估计对象。假如数据PDF的N-F分解如下

                                              

可以很明显看出,       T(x)=\sum_{n=0}^{N-1}x^{2}[n]  是 \sigma ^{2} 的充分估计量。

 

- 联合充分统计量

- 定义:如果 m 个统计量T_{1}(x),T_{2}(x),...,T_{m}(x) 的条件PDF  p(x|T_{1}(x),T_{2}(x),...,T_{m}(x);\theta ) 与 \theta 无关,那么这 m 个统计量联合充分统计量。

- N-F分解:如果p(x;\theta )能够分解为

                                                   p(x;\theta )=g(T_{1}(x),...,T_{m}(x),\theta )h(x)

那么\left \{ T_{1}(x),T_{2}(x),...,T_{m}(x)\right \} 是 \theta 的充分统计量。很显然,原始数据总是充分统计量。

因为令m = N, T_{n+1}(x)=x[n]    所有恒有g=p(x;\theta)  h=1 。

 

- 利用充分统计量求MVU估计量(RBLS定理)

- 上面已经获取求 \theta 的充分统计量T(x),那么就可以利用RBLS定理来求MVU估计量。

- RBLS定理

如果 \check{\theta } 是 \theta 的无偏估计量,T(x) 是 \theta 的充分统计量,那么    \hat{\theta }=E(\check{\theta }|T(x))  具有如下特性:

        i)\hat{\theta } 是 \theta 的一个适用的估计量,即是与 \theta 无关;

        ii)\hat{\theta } 是无偏的

        iii)\hat{\theta } 对于所有的 \theta 来说,\hat{\theta } 的方差要小于或等于 \check{\theta } 的方差

        iv)如果 T(x) 充分统计量是完备的,那么 \hat{\theta } 是MVU估计量

- 完备统计量(Completeness statistic)

          定义1:a statistic that does not allow an unbiased estimator of zero.   

          定义2:从本质上来讲,如果只存在一个无偏统计量函数(统计量是样本的函数),那么该统计量就是完备的。

          定义3:图来源:https://wenku.baidu.com/view/e3a2df49daef5ef7bb0d3c2e.html

充分完备统计量性质:对于某个参数 \theta 的估计,假定充分统计量T(x)完备的,则存在唯一的函数 g 满足 E[g(T(x))] = \theta 。

更多性质参考:https://wenku.baidu.com/view/e3a2df49daef5ef7bb0d3c2e.html

 

总结完备性条件: 如果对于所有待估计参数 \theta ,它的充分统计量 T 的任何一种构造函数 v(T) ,只对零函数即v(T)=0(对所有的T)满足下面条件

                                                                    

那么,就说充分统计量是完备的。

 

- 解题思路(针对不知道MVU估计量时的参数估计问题)

1、利用R-F因子分解来求一个 估计参数 \theta 的充分统计量 T(x)。

2、确定充分统计量是否完备。如果是,继续往下处理;否者这个方法就不能使用。

3、求一个充分统计量的函数,以此来得到一个无偏估计量 \hat{\theta }=g(T(x))。那么, \hat{\theta } 是MVU估计量。

                 步骤3 可亦采用另一种方法

3‘、计算 \hat{\theta }=E(\check{\theta }|T(x)) ,其中 \check{\theta } 是任意的无偏估计量。(实际中,条件期望计算复杂,视情况选择方法)

  • 2
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值