令
X=(X1,…,Xn)′
表示某试验的随机变量,我们一般对
X
的函数感兴趣,表示为
T=T(X)
。例如如果
X
是一个样本,
T
可能是我们感兴趣的统计量。我们先从
然后我们会得到这种随机变量的均值与方差。
T 的均值根据期望运算的线性性质可以立刻得出,如下定理所示:
对于
T
的方差,我们先给出涉及到协方差的一个结论。令
定理2:
令
T=∑ni=1aiXi,W=∑mi−1biYi
,如果对
i=1,…,n,j=1,…,m,E[X2i]<∞,E[Y2j]<∞
,那么
证明:
根据协方差的定义以及定理1,我们可得
得证。 ||
为了求出
T
的方差,我们用
注意如果 X1,…,Xn 是独立的随机变量,那么 cov(Xi,Xj)=0 ,从而 (1) 得到进一步简化,如下面的推论:
推论2:
如果
X1,…,Xn
是拥有有限个变量的独立随机变量,那么
注意只需要对所有的 i≠j,Xi,Xj 不相干即可得到这个结论;例如当 X1,…,Xn 是独立的,那么 cov(Xi,Xj)=0,i≠j 。
考虑我们有一个感兴趣的随机变量
X
,它的密度为
定义1:
令
X
是随机变量,pdf为
如果 T 不是无偏的(即,
例1:
令
X1,…,Xn
是均值为
μ
,方差为
σ2
的随机变量
X
的分布中随机得到的样本,回忆一下样本均值为
因此
X¯
是
μ
的无偏估计。进一步,
X¯
的方差在
n
很大时非常小。从极限角度来说就是当
例2:
X1,…,Xn
如上例所示,样本方差定义为
利用上例的结论以及
E(X2)=σ2+μ2
可得
因此样本方差是
σ2
的无偏估计。如果
V=n−1∑ni−1(Xi−X¯)2
,那么
E(V)=((n−1)/n)sigma2
,也就是说
V
是
因此
Yn
的pdf为
基于这个pdd可得 E(Yn)=(n/(n+1))θ ,所以 Yn 是 θ 的有偏估计,注意 ((n+1)/n)Yn 是 θ 的无偏估计。
例4:
X1,…,Xn
随机变量
X
分布的随机样本,该变量的pdf为
如果
Xi
关于
μ
对称,那么随机向量
(X1−μ,…,Xn−μ)
与随机向量
(−(X1−μ),…,−(Xn−μ))
的分布是一样的,特别的他们的期望是一样的。由上面的结论可得:
即 2E(T)=2μ ,所以 E[T]=μ 。在上面两个性质的条件下,样本中值是 θ 的无偏估计。那么样本均值与样本中值那个更好呢?后面的文章会详细介绍。