最小二乘估计的使用前提总是假设线性回归模型的误差是等方差且不相关的,即
C
o
v
(
e
)
=
σ
2
I
Cov(e)=\sigma ^{2}I
Cov(e)=σ2I,虽然在许多情况下,这个假定可以认为近似地成立,但有时我们的确要考虑假定不成立时的情况。
为了讨论的简单,我们假定以下的的
Σ
\Sigma
Σ(正常情况下是有参数的)是完全已知的。
我们讨论的模型:
{
y
=
X
β
+
e
,
(
∗
)
E
(
e
)
=
0
,
C
o
v
(
e
)
=
σ
2
Σ
\begin{cases}y=X\beta +e,\quad(*)\\E(e)=0,\\Cov(e)=\sigma^2\Sigma \end{cases}
⎩⎪⎨⎪⎧y=Xβ+e,(∗)E(e)=0,Cov(e)=σ2Σ
(注:
Σ
\Sigma
Σ是正定矩阵,故存在
P
n
×
n
P_{n\times n}
Pn×n使得
Σ
=
P
′
Λ
P
\Sigma=P'\Lambda P
Σ=P′ΛP,并记
(
Σ
−
1
2
)
2
=
Σ
−
1
(\Sigma^{-\frac{1}{2}})^2=\Sigma^{-1}
(Σ−21)2=Σ−1)
用
Σ
−
1
2
\Sigma^{-\frac{1}{2}}
Σ−21左乘
(
∗
)
(*)
(∗)式,得
Σ
−
1
2
y
=
Σ
−
1
2
X
β
+
Σ
−
1
2
e
\Sigma^{-\frac{1}{2}}y=\Sigma^{-\frac{1}{2}}X\beta +\Sigma^{-\frac{1}{2}}e
Σ−21y=Σ−21Xβ+Σ−21e记
Z
=
Σ
−
1
2
y
,
U
=
Σ
−
1
2
X
β
,
ε
=
Σ
−
1
2
e
Z=\Sigma^{-\frac{1}{2}}y, U= \Sigma^{-\frac{1}{2}}X\beta,\varepsilon=\Sigma^{-\frac{1}{2}}e
Z=Σ−21y,U=Σ−21Xβ,ε=Σ−21e,即得到了以个满足基本假定的新模型(我们可以计算新模型期望和协方差阵,发现确实满高斯-马尔可夫假定计算协方差时用到公式
C
o
v
(
A
X
)
=
A
C
o
v
(
X
)
A
′
Cov(AX)=ACov(X)A'
Cov(AX)=ACov(X)A′):
\quad
Z
=
U
+
ε
Z=U+\varepsilon
Z=U+ε, 因而我们可以得到新模型的最小二乘估计
β
∗
=
(
U
′
U
)
−
1
U
′
Z
=
(
X
′
Σ
−
1
X
)
−
1
X
′
Σ
−
1
y
\beta^*=(U'U)^{-1}U'Z=(X'\Sigma^{-1}X)^{-1}X'\Sigma^{-1}y
β∗=(U′U)−1U′Z=(X′Σ−1X)−1X′Σ−1y一般地,我们就称
β
∗
\beta^*
β∗为广义最小二乘估计。
定理:
\quad
对于线性回归模型
(
∗
)
(*)
(∗)的广义最小二乘估计
β
∗
\beta^*
β∗,有以下性质:
- E ( β ∗ ) = β E(\beta^*)=\beta E(β∗)=β
- C o v ( β ∗ ) = σ 2 ( X ′ Σ − 1 X ) − 1 Cov(\beta^*)=\sigma^2(X'\Sigma^{-1}X)^{-1} Cov(β∗)=σ2(X′Σ−1X)−1
- 对于任意 c n × 1 c_{n\times1} cn×1向量, c ′ β ∗ c'\beta^* c′β∗为 c ′ β c'\beta c′β的唯一的最小方差无偏估计。(说明对于一般线性回归模型 ( ∗ ) , (*), (∗),广义最小二乘估计总是优于普通最小二乘估计的)