条件期望与重期望
条件期望的定义:
E ( x ∣ y ) = ∫ − ∞ ∞ x f ( x ∣ y ) d x E(x|y)=\int_{-\infty}^{\infty}xf(x|y)dx E(x∣y)=∫−∞∞xf(x∣y)dx(连续)
E ( x ∣ y ) = ∑ i x i ρ ( X = x i ∣ Y = y i ) E(x|y)=\sum\limits_ix_i\rho(X=x_i|Y=y_i) E(x∣y)=i∑xiρ(X=xi∣Y=yi)(离散)
重期望的性质
1. E ( E ( g ( x ) ∣ Y ) ) = ∫ − ∞ ∞ E ( g ( x ) ∣ Y ) f Y ( y ) d y 1.E(E(g(x)|Y))=\int_{-\infty}^{\infty}E(g(x)|Y)f_{Y}(y)dy 1.E(E(g(x)∣Y))=∫−∞∞E(g(x)∣Y)fY(y)dy(注意积分,因为里面已经积分了 d x dx dx,外面是 d y dy dy)
= ∫ − ∞ ∞ [ ∫ − ∞ ∞ g ( x ) f ( x ∣ y ) d x ] f Y ( y ) d y \int_{-\infty}^{\infty}[\int_{-\infty}^{\infty}g(x)f(x|y)dx]f_{Y}(y)dy ∫−∞∞[∫−∞∞g(x)f(x∣y)dx]fY(y)dy
= ∫ − ∞ ∞ ∫ − ∞ ∞ g ( x ) f ( x ∣ y ) f Y ( y ) d x d y \int_{-\infty}^{\infty}\int_{-\infty}^{\infty}g(x)f(x|y)f_{Y}(y)dxdy ∫−∞∞∫−∞∞g(x)f(x∣y)fY(y)dxdy
= ∫ − ∞ ∞ ∫ − ∞ ∞ g ( x ) f ( x ∣ y ) d x d y \int_{-\infty}^{\infty}\int_{-\infty}^{\infty}g(x)f(x|y)dxdy ∫−∞∞∫−∞∞g(x)f(x∣y)dxdy
= E ( g ( x ) ) E(g(x)) E(g(x))
2.
E
(
h
(
y
)
g
(
x
)
∣
Y
)
=
∫
−
∞
∞
h
(
y
)
g
(
x
)
f
(
x
∣
y
)
d
x
2.E(h(y)g(x)|Y)=\int_{-\infty}^{\infty}h(y)g(x)f(x|y)dx
2.E(h(y)g(x)∣Y)=∫−∞∞h(y)g(x)f(x∣y)dx
=
h
(
y
)
∫
−
∞
∞
g
(
x
)
f
(
x
∣
y
)
d
x
=h(y)\int_{-\infty}^{\infty}g(x)f(x|y)dx
=h(y)∫−∞∞g(x)f(x∣y)dx
=
h
(
y
)
E
(
g
(
x
)
∣
Y
)
h(y)E(g(x) | Y)
h(y)E(g(x)∣Y)
期望在数理统计的相关知识点
均方误差:
MSE ( θ ^ ) = E ( θ ^ − θ ) 2 = E [ ( θ ^ − E θ ^ ) + ( E θ ^ − θ ) ] 2 = E ( θ ^ − E θ ^ ) 2 + E ( E θ ^ − θ ) 2 + 2 E [ ( θ ^ − E θ ^ ) ( E θ ^ − θ ) ] = Var ( θ ^ ) + ( E θ ^ − θ ) 2 \begin{array}{l} \operatorname{MSE}(\hat{\theta})=E(\hat{\theta}-\theta)^{2} \\ =E[(\hat{\theta}-E \hat{\theta})+(E \hat{\theta}-\theta)]^{2} \\ =E(\hat{\theta}-E \hat{\theta})^{2}+E(E \hat{\theta}-\theta)^{2}+2 E[(\hat{\theta}-E \hat{\theta})(E \hat{\theta}-\theta)] \\ =\operatorname{Var}(\hat{\theta})+(E \hat{\theta}-\theta)^{2} \end{array} MSE(θ^)=E(θ^−θ)2=E[(θ^−Eθ^)+(Eθ^−θ)]2=E(θ^−Eθ^)2+E(Eθ^−θ)2+2E[(θ^−Eθ^)(Eθ^−θ)]=Var(θ^)+(Eθ^−θ)2
如果对任意一个满足
E
(
φ
(
X
)
)
=
0
E(\varphi(X))=0
E(φ(X))=0和
Var
(
θ
^
)
<
∞
.
\operatorname{Var}(\hat{\theta})<\infty .
Var(θ^)<∞. 的
φ
(
X
)
,
\varphi(X),
φ(X), 都有
Cov
θ
(
θ
^
,
φ
)
=
0
,
∀
θ
∈
Θ
\operatorname{Cov}_{\theta}(\hat{\theta}, \varphi)=0, \quad \forall \theta \in \Theta
Covθ(θ^,φ)=0,∀θ∈Θ
则
θ
^
\hat{\theta}
θ^ 是
θ
\theta
θ 的UMVUE。
Cov
θ
(
θ
^
,
φ
)
=
0
,
∀
θ
∈
Θ
=
E
(
θ
^
φ
)
−
E
θ
^
E
φ
(
E
φ
=
0
)
=
E
(
θ
^
φ
)
\operatorname{Cov}_{\theta}(\hat{\theta}, \varphi)=0, \quad \forall \theta \in \Theta \\=E(\hat{\theta}\varphi)-E\hat{\theta}E\varphi(E\varphi=0) \\=E(\hat{\theta}\varphi)
Covθ(θ^,φ)=0,∀θ∈Θ=E(θ^φ)−Eθ^Eφ(Eφ=0)=E(θ^φ)
设
x
1
x
2
,
…
,
x
n
x_{1} x_{2}, \ldots, x_{n}
x1x2,…,xn 是来自指数分布
E
x
p
Exp
Exp(1/
θ
)
\left.\theta\right)
θ) 的样本,则
T
=
T=
T=
x
1
+
…
+
X
n
x_{1}+\ldots+X_{n}
x1+…+Xn 是
θ
\theta
θ 的充分统计量,
X
ˉ
=
T
/
n
\bar{X}=T / n \quad
Xˉ=T/n 是
θ
\theta
θ 的无偏估计
E φ = ∫ 0 ∞ ⋯ ∫ 0 ∞ φ ( x 1 , ⋯ , x n ) ⋅ 1 θ n e − ( x i + ⋯ + x n ) / θ d x 1 ⋯ d x n = 0 ∫ 0 ∞ ⋯ ∫ 0 ∞ φ ( x 1 , ⋯ , x n ) ⋅ e − ( x i + ⋯ + x n ) / θ d x 1 ⋯ d x n = 0 \begin{aligned} E \varphi=& \int_{0}^{\infty} \cdots \int_{0}^{\infty} \varphi\left(x_{1}, \cdots, x_{n}\right) \cdot \frac{1}{\theta^{n}} e^{-\left(x_{i}+\cdots+x_{n}\right) / \theta} \mathrm{d} x_{1} \cdots \mathrm{d} x_{n}=0 \\ & \int_{0}^{\infty} \cdots \int_{0}^{\infty} \varphi\left(x_{1}, \cdots, x_{n}\right) \cdot e^{-\left(x_{i}+\cdots+x_{n}\right) / \theta} \mathrm{d} x_{1} \cdots \mathrm{d} x_{n}=0 \end{aligned} Eφ=∫0∞⋯∫0∞φ(x1,⋯,xn)⋅θn1e−(xi+⋯+xn)/θdx1⋯dxn=0∫0∞⋯∫0∞φ(x1,⋯,xn)⋅e−(xi+⋯+xn)/θdx1⋯dxn=0
两端对
θ
\theta
θ 求导得
∫
0
∞
⋯
∫
0
∞
n
x
ˉ
θ
2
φ
(
x
1
,
⋯
,
x
n
)
⋅
e
−
(
x
i
+
⋯
+
x
n
)
/
θ
d
x
1
⋯
d
x
n
=
0
\int_{0}^{\infty} \cdots \int_{0}^{\infty} \frac{n \bar{x}}{\theta^{2}} \varphi\left(x_{1}, \cdots, x_{n}\right) \cdot e^{-\left(x_{i}+\cdots+x_{n}\right) / \theta} \mathrm{d} x_{1} \cdots d x_{n}=0
∫0∞⋯∫0∞θ2nxˉφ(x1,⋯,xn)⋅e−(xi+⋯+xn)/θdx1⋯dxn=0
∫
0
∞
⋯
∫
0
∞
x
ˉ
φ
(
x
1
,
⋯
,
x
n
)
⋅
e
−
(
x
i
+
⋯
+
x
n
)
/
θ
d
x
1
⋯
d
x
n
=
0
\int_{0}^{\infty} \cdots \int_{0}^{\infty} \bar{x} \varphi\left(x_{1}, \cdots, x_{n}\right) \cdot e^{-\left(x_{i}+\cdots+x_{n}\right) / \theta} \mathrm{d} x_{1} \cdots \mathrm{d} x_{n}=0
∫0∞⋯∫0∞xˉφ(x1,⋯,xn)⋅e−(xi+⋯+xn)/θdx1⋯dxn=0
这说明
E
(
x
ˉ
⋅
φ
)
=
0
,
E(\bar{x} \cdot \varphi)=0, \quad
E(xˉ⋅φ)=0, 从而
Cov
(
x
ˉ
,
φ
)
=
E
(
x
ˉ
⋅
φ
)
−
E
(
x
ˉ
)
⋅
E
(
φ
)
=
0
\operatorname{Cov}(\bar{x}, \varphi)=E(\bar{x} \cdot \varphi)-E(\bar{x}) \cdot E(\varphi)=0
Cov(xˉ,φ)=E(xˉ⋅φ)−E(xˉ)⋅E(φ)=0