文章目录
单变量推论统计
在实际的社会调查中,普查的方式使用很少,通常是使用抽样调查的方式。而单变量推论统计的目的,就是通过样本调查中所得到的数据资料,对总体的状况进行推断。可以从区间估计和假设检验两个方面进行。
概率(probabilty)和统计(statistics) 看似两个相近的概念,其实研究的问题刚好相反。概率研究的问题是,已知一个模型和参数,怎么去预测这个模型产生的结果的特性(例如均值,方差,协方差等等)。统计是有一堆数据,要利用这堆数据去预测模型和参数。概率是已知模型和参数,推数据。统计是已知数据,推模型和参数。概率论是数理统计学的基础,数理统计学是概率论的重要应用。
统计学中有两个大的学派:频率学派(也称经典学派)和贝叶斯学派。众所周知统计推断是根据样本信息对总体分布或者是总体特征数进行推断,经典学派和贝叶斯学派就是通过统计推断的不同方式划分的,经典学派的统计推断是依据样本信息 和总体信息来进行推断,而贝叶斯学派认为除了依据以上两种信息来进行推断以外还可以应该加上先验信息来进行统计推断。
样本信息:
样本信息即抽取样本观测其值所得到的信息,我们希望用样本信息来对总体特征进行推断,样本信息越多我们推断总体也就越是准确。
总体信息:
总体信息即总体分布或者总体分布族所提供的信息,如果知道某个随机变量服从某个分布就可以根据这个分布来进行统计推断。
先验信息:
如果把抽取样本看做是一次随机试验,那么样本信息就是试验中得到的信息,但是往往我们在研究某些问题之前总要对研究的问题有所了解,这种了解包括经验上的了解即过去是否存在过同样的问题或者是关于同样问题的一些历史样本,这研究问题之前就能够了解到的信息就叫做先验信息,贝叶斯学派认为’历史经验’也能够在一定程度上面帮助我们进行统计推断。
贝叶斯学派与经典学派最大的不同之处在于其认为统计推断过程具有一种连续性,也即用历史的眼光看待问题,用发展的角度看待问题,他们认为过去的事情与现在的事情是有联系的或者是过去的样本与现在的样本是有联系的,能够运用历史经验来修正经典学派基于现有经验的统计推断。
贝叶斯学派的基本观点是:任一未知统计量 θ \theta θ都可以看做一个随机变量也即我们需要推断的总体的某个特征服从某个分布,这也就是说我们可以根据先验信息建立一个 θ \theta θ服从的分布,这样做的目的就在于合理的利用先验信息来进行统计推断。
参数估计(parameter estimation)
点估计
当我们想知道某一总体的某个指标的情况时,测量整体该指标的数值的工作量太大或者不符合实际,这时我们可以采用抽样的方法选取一部分样本测量出他们数值,然后用样本统计量的值来估计总体的情况。
常用的点估计有:用样本均值估计总体均值、用样本方差估计总体方差、用样本的分位数估计总体的分位数、用样本的中位数估计总体的中位数。
点估计方法:矩估计法、极大似然估计、最大后验概率估计、贝叶斯估计。
参考文章:
贝叶斯估计、最大似然估计、最大后验概率估计
详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解
【数学基础】参数估计之极大似然估计
【数学基础】参数估计之最大后验估计(Maximum A Posteriori,MAP)
【数学基础】参数估计之贝叶斯估计
数学漫步——贝叶斯估计思想
矩估计法
用样本矩估计总体矩,用样本矩函数估计总计矩函数。优点:不要求知道总体的分布。缺点:不唯一。
贝叶斯公式
贝叶斯公式: p ( w ∣ x ) = p ( x ∣ w ) p ( w ) p ( x ) p(w|x)=\frac{p(x|w)p(w)}{p(x)} p(w∣x)=p(x)p(x∣w)p(w)
p ( w ) p(w) p(w)为先验概率,表示每种类别分布的概率; p ( x ∣ w ) p(x|w) p(x∣w)为类条件概率,表示在某种类别前提下,某事发生的概率; p ( w ∣ x ) p(w|x) p(w∣x)为后验概率,表示某事发生了,并且它属于某一类别的概率。后验概率越大,说明某事物属于这个类别的可能性越大,我们越有理由把它归到这个类别下。贝叶斯公式就是在描述,你有多大把握能相信一件证据?(how much you can trust the evidence)。做判断的时候,要考虑所有的因素。一个本来就难以发生的事情,就算出现某个证据和他强烈相关,也要谨慎。证据很可能来自别的虽然不是很相关,但发生概率较高的事情。
但是在实际问题中我们能获得的数据可能只有有限数目的样本数据,而先验概率 p ( w ) p(w) p(w)和类条件概率(各类的总体分布) p ( x ∣ w ) p(x|w) p(x∣w)都是未知的。根据仅有的样本数据进行分类时,一种可行的办法是我们需要先对先验概率和类条件概率进行估计,然后再套用贝叶斯分类器。
先验概率的估计较简单:
1、 每个样本所属的自然状态都是已知的(有监督学习);
2、 依靠经验;
3、 用训练样本中各类出现的频率估计。
类条件概率的估计非常难,原因包括:
1、 概率密度函数包含了一个随机变量的全部信息;
2、 样本数据可能不多;
3、 特征向量
x
x
x的维度可能很大等等。
极大似然估计(Maximum Likelihood Estimation, 简称MLE)
概率最大的事件,最可能发生。其实我们生活中无时无刻不在使用这种方法,只是不知道它在数学中是如何确定或者推导的。而在数理统计中,它有一个专业的名词:极大似然估计,也叫最像估计法(最可能估计法)。似然(likelihood),似然函数是在"已知"样本随机变量 X X X的情况下,估计参数空间中的参数 θ \theta θ的值。要求分布有参数形式。
对于似然函数: P ( x ∣ θ ) P(x|\theta) P(x∣θ)输入有两个: x x x表示某一个具体的数据; θ \theta θ表示模型的参数。如果 θ \theta θ是已知确定的, x x x是变量,这个函数叫做概率函数(probability function),它描述对于不同的样本点 x x x,其出现概率是多少。如果 x x x是已知确定的, θ \theta θ是变量,这个函数叫做似然函数(likelihood function), 它描述对于不同的模型参数,出现 x x x这个样本点的概率是多少。
最大似然估计的目的就是:利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。
重要前提:
1、训练样本的分布能代表样本的真实分布。
2、每个样本集中的样本都是所谓独立同分布的随机变量 (iid条件),
3、且有充分的训练样本。
原理:
极大似然估计是建立在极大似然原理的基础上的一个统计方法,是概率论在统计学中的应用。极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。通过若干次试验,观察其结果,利用试验结果得到某个参数值能够使样本出现的概率为最大,则称为极大似然估计。
计算过程:
设总体有分布
f
(
x
;
θ
1
,
…
,
θ
k
)
f(x;\theta_1,\dots,\theta_k)
f(x;θ1,…,θk),
X
1
,
…
,
X
n
X_1,\dots,X_n
X1,…,Xn为这个总体中抽出的样本,那么样本
(
X
1
,
…
,
X
n
)
(X_1,\dots,X_n)
(X1,…,Xn)的分布为
f
(
x
1
;
θ
1
,
…
,
θ
k
)
…
f
(
x
k
;
θ
1
,
…
,
θ
k
)
f(x_1;\theta_1,\dots,\theta_k)\dots f(x_k;\theta_1,\dots,\theta_k)
f(x1;θ1,…,θk)…f(xk;θ1,…,θk)
记为 L ( x 1 , … , x n ; θ 1 , … , θ k ) L(x_1,\dots,x_n;\theta_1,\dots,\theta_k) L(x1,…,xn;θ1,…,θk).
固定 θ 1 , … , θ k \theta_1,\dots,\theta_k θ1,…,θk,看作 x 1 , … , x n x_1,\dots,x_n x1,…,xn的函数时, L L L为一个概率密度函数。
当固定 x 1 , … , x n x_1,\dots,x_n x1,…,xn,看作 θ 1 , … , θ k \theta_1,\dots,\theta_k θ1,…,θk的函数时, 为似然函数。当已经观察到 X 1 , … , X n X_1,\dots,X_n X1,…,Xn时,若 L ( x 1 , … , x n ; θ 1 ′ , … , θ k ′ ) > L ( x 1 , … , x n ; θ 1 ′ ′ , … , θ k ′ ′ ) L(x_1,\dots,x_n;\theta_1^{'},\dots,\theta_k^{'})>L(x_1,\dots,x_n;\theta_1^{''},\dots,\theta_k^{''}) L(x1,…,xn;θ1′,…,θk′)>L(x1,…,xn;θ1′′,…,θk′′),则被估计的参数 ( θ 1 , … , θ k ) (\theta_1,\dots,\theta_k) (θ1,…,θk)是 θ 1 ′ , … , θ k ′ \theta_1^{'},\dots,\theta_k^{'} θ1′,…,θk′的可能性要比是 θ 1 ′ ′ , … , θ k ′ ′ \theta_1^{''},\dots,\theta_k^{''} θ1′′,…,θk′′的可能性大。
应用似然程度最大的点 θ 1 ∗ , … , θ k ∗ \theta_1^{*},\dots,\theta_k^{*} θ1∗,…,θk∗,即满足条件 L ( x 1 , … , x n ; θ 1 ∗ , … , θ k ∗ ) = max θ 1 , … , θ k L ( x 1 , … , x n ; θ 1 , … , θ k ) L(x_1,\dots,x_n;\theta_1^{*},\dots,\theta_k^{*})=\max\limits_{\theta_1,\dots,\theta_k}L(x_1,\dots,x_n;\theta_1,\dots,\theta_k) L(x1,…,xn;θ1∗,…,θk∗)=θ1,…,θkmaxL(x1,…,xn;θ1,…,θk)的 ( θ 1 ∗ , … , θ k ∗ ) (\theta_1^{*},\dots,\theta_k^{*}) (θ1∗,…,θk∗)作为 ( θ 1 , … , θ k ) (\theta_1,\dots,\theta_k) (θ1,…,θk)的估计值。即“看起来最像”。
另计算:
l
n
L
=
∑
i
=
1
n
l
n
f
(
X
i
;
θ
1
,
…
,
θ
k
)
lnL=\sum_{i=1}^{n}{lnf(X_i;\theta_1,\dots,\theta_k)}
lnL=i=1∑nlnf(Xi;θ1,…,θk)
且为了使
L
L
L达到最大,只需要使
l
n
L
lnL
lnL达到最大。故连续偏导后:
∂
l
n
L
∂
θ
i
=
0
,
i
=
1
,
…
,
k
\frac{\partial lnL}{\partial \theta_i}=0,i=1,\dots,k
∂θi∂lnL=0,i=1,…,k
求出唯一解。
最大后验概率估计(Maximum a Posteriori Probability, 简称MAP)
在极大似然估计中, θ i \theta_i θi是一个待估参数,其本身是确定的,即使目前未知。与极大似然估计不同的是,MAP将参数 θ i \theta_i θi看作一个随机变量。MAP考量的是事件集 X 1 , … , X n X_1,\dots,X_n X1,…,Xn已经发生了,那在事件集发生的情况下,哪个 θ i \theta_i θi发生的概率最大。即 p ( θ ∣ X ) = p ( X ∣ θ ) p ( θ ) p ( X ) p(\theta|X)=\frac{p(X|\theta)p(\theta)}{p(X)} p(θ∣X)=p(X)p(X∣θ)p(θ)
在最大似然估计中,参数 θ \theta θ是一个定值,只是这个值未知,最大似然函数是 θ \theta θ的函数,这里 θ \theta θ是没有概率意义的。但是,在最大后验估计中, θ \theta θ是有概率意义的, θ \theta θ有自己的分布,而这个分布函数,需要通过已有的样本集合 X X X得到,即最大后验估计需要计算的是 p ( θ ∣ X ) p(\theta|X) p(θ∣X).
计算:
p
(
θ
∣
X
)
=
p
(
X
∣
θ
)
p
(
θ
)
p
(
X
)
p(\theta|X)=\frac{p(X|\theta)p(\theta)}{p(X)}
p(θ∣X)=p(X)p(X∣θ)p(θ)这个公式中,参数
θ
\theta
θ是关于集合
X
X
X的后验概率,要使得后验概率最大,求导。
θ
^
M
A
P
=
a
r
g
max
θ
p
(
θ
∣
X
)
=
a
r
g
max
θ
p
(
θ
)
p
(
X
∣
θ
)
\hat{\theta}_{MAP}=arg\max\limits_{\theta}p(\theta|X)=arg\max\limits_{\theta}p(\theta)p(X|\theta)
θ^MAP=argθmaxp(θ∣X)=argθmaxp(θ)p(X∣θ)
求梯度:
p
(
θ
∣
X
)
∂
θ
=
p
(
θ
)
p
(
X
∣
θ
)
∂
θ
=
0
\frac{p(\theta|X)}{\partial\theta}=\frac{p(\theta)p(X|\theta)}{\partial\theta}=0
∂θp(θ∣X)=∂θp(θ)p(X∣θ)=0
MAP和MLE的区别是:MAP是在ML的基础上加上了
p
(
θ
)
p(\theta)
p(θ),
p
(
θ
)
p(\theta)
p(θ)称为
θ
\theta
θ的先验概率。
贝叶斯估计
核心问题:
这里定义已有的样本集合
X
X
X。样本集合
X
X
X中的样本都是从一个固定但是未知的概率密度函数
p
(
θ
)
p(\theta)
p(θ)中独立抽取出来的,要求根据这些样本估计
x
x
x的概率分布,记为
p
(
θ
∣
X
)
p(\theta|X)
p(θ∣X),并且使得
p
(
θ
∣
X
)
p(\theta|X)
p(θ∣X)尽量的接近
p
(
θ
)
p(\theta)
p(θ),这就是贝叶斯估计的核心问题。
贝叶斯公式的密度函数形式:
p
(
x
∣
θ
)
p(x|\theta)
p(x∣θ)表示随机变量
θ
\theta
θ给定某个值时,
X
X
X的条件密度函数;根据参数
θ
\theta
θ的先验信息确定先验分布
π
(
θ
)
\pi(\theta)
π(θ);
贝叶斯的观点,样本 X = ( X 1 , X 2 , … , X n ) X=(X_1,X_2,\dots,X_n) X=(X1,X2,…,Xn)的产生要分为两步进行。一、设想从先验分布 π ( θ ) \pi(\theta) π(θ)产生一个样本 θ ′ \theta^{'} θ′;二、从 p ( x ∣ θ ′ ) p(x|\theta^{'}) p(x∣θ′)中产生一个样本 X X X。这时样本 的联合条件密度函数为: p ( X ∣ θ ′ ) = p ( x 1 , … , x n ∣ θ ′ ) = ∏ i = n n p ( x i ∣ θ ′ ) p(X|\theta^{'})=p(x_1,\dots,x_n|\theta^{'})=\prod_{i=n}^{n}{p(x_i|\theta^{'})} p(X∣θ′)=p(x1,…,xn∣θ′)=i=n∏np(xi∣θ′)
这个联合分布综合了总体信息和样本信息,称为似然函数。
由于 θ ′ \theta^{'} θ′是设想出来的,仍然时未知的,它是按先验分布 π ( θ ) \pi(\theta) π(θ)产生的。为了把先验信息综合进去,不能只考虑 θ ′ \theta^{'} θ′,对 θ \theta θ的其他值发生的可能性也要加以考虑,故要用 π ( θ ) \pi(\theta) π(θ)进行综合。这样一来,样本 X X X和参数 θ \theta θ的联合分布为 h ( x , θ ) = p ( x ∣ θ ) π ( θ ) h(x,\theta)=p(x|\theta)\pi(\theta) h(x,θ)=p(x∣θ)π(θ)
这个联合分布把三种可用信息都综合进去了。
对未知参数 θ \theta θ作统计推断,在没有样本信息时,只能依据先验分布 π ( θ ) \pi(\theta) π(θ)对 θ \theta θ作出推断。在有了样本观察值 x = ( x 1 , … , x n ) x=(x_1,\dots,x_n) x=(x1,…,xn)之后,应依据 h ( x , θ ) h(x,\theta) h(x,θ)对 θ \theta θ作出推断。 h ( x , θ ) = π ( x ∣ θ ) m ( θ ) h(x,\theta)=\pi(x|\theta)m(\theta) h(x,θ)=π(x∣θ)m(θ)
其中 m ( θ ) m(\theta) m(θ)是 X X X的边缘密度函数: m ( θ ) = ∫ θ h ( x , θ ) d θ = ∫ θ p ( x ∣ θ ) π ( θ ) d θ m(\theta)=\int_{\theta}{h(x,\theta)}d\theta=\int_{\theta}{p(x|\theta)\pi(\theta)}d\theta m(θ)=∫θh(x,θ)dθ=∫θp(x∣θ)π(θ)dθ
于是贝叶斯公式的密度函数形式为: π ( θ ∣ x ) = h ( x , θ ) m ( x ) = p ( x ∣ θ ) π ( θ ) ∫ θ p ( x ∣ θ ) π ( θ ) d θ \pi(\theta|x)=\frac{h(x,\theta)}{m(x)}=\frac{p(x|\theta)\pi(\theta)}{\int_{\theta}{p(x|\theta)\pi(\theta)}d\theta} π(θ∣x)=m(x)h(x,θ)=∫θp(x∣θ)π(θ)dθp(x∣θ)π(θ)
常用方法:
π
(
θ
∣
x
)
\pi(\theta|x)
π(θ∣x)被称作后验分布(后验概率),使用它估计
θ
\theta
θ有三种常用的方法:
1、使用后验分布的密度函数最大值点作为
θ
\theta
θ的点估计的最大后验估计(MAP)。
2、使用后验分布的中位数作为
θ
\theta
θ的点估计的后验中位数估计(基本没看到用过)。
3、使用后验分布的均值作为
θ
\theta
θ的点估计的后验期望估计。
用的最多的是后验期望估计,它一般也直接简称为贝叶斯估计,即为
θ
^
B
\hat{\theta}_{B}
θ^B.
贝叶斯估计
θ
^
B
\hat{\theta}_{B}
θ^B:
贝叶斯估计的本质是通过贝叶斯决策得到参数
θ
\theta
θ的最优估计,使得总期望风险最小。
定理:
设
θ
\theta
θ的后验密度为
π
(
θ
∣
x
)
\pi(\theta|x)
π(θ∣x),则后验期望估计
θ
^
B
\hat{\theta}_{B}
θ^B使得均方误差达到最小。
区间估计
参考书目:《概率论与数理统计_陈希孺》p174
区间估计就是在点估计的基础上,给出总体参数估计的一个区间范围,该区间通常由样本统计量加减估计误差得到,是指在一定的标准差范围内设立一个置信区间,然后联系这个区间的可信度将样本统计值推论为总体参数值。它的实质是在一定的置信度下,用样本统计值的某个范围来“框”住总体的参数值,即以两个数值之间的间距来估计参数值。
给定一个很小的数 α > 0 \alpha>0 α>0, 如果对于参数 θ \theta θ的任何值,概率式 P { θ 1 ( x 1 , x 2 , … , x n ) ⩽ θ 2 ( x 1 , x 2 , … , x n ) } P\{\theta_{1}(x_1,x_2,\dots,x_n) \leqslant \theta_{2}(x_1,x_2,\dots,x_n) \} P{θ1(x1,x2,…,xn)⩽θ2(x1,x2,…,xn)}都等于 1 − α 1-\alpha 1−α, 则称区间估计 [ θ 1 , θ 2 ] [\theta_1, \theta_2] [θ1,θ2]的置信系数为 1 − α 1-\alpha 1−α. 因此区间估计也常常被称为置信区间。
**上分为点:**以
Φ
(
x
)
\Phi(x)
Φ(x)记为
N
(
0
,
1
)
N(0,1)
N(0,1)的分布函数,对
0
<
β
<
1
0<\beta<1
0<β<1,用方程
Φ
(
u
β
)
=
1
−
β
\Phi(u_{\beta})=1-\beta
Φ(uβ)=1−β定义记号
u
β
u_{\beta}
uβ.
u
β
u_{\beta}
uβ称为分布
N
(
0
,
1
)
N(0,1)
N(0,1)的上
β
\beta
β分位点。其意义是:
N
(
0
,
1
)
N(0,1)
N(0,1)分布中大于
u
β
u_{\beta}
uβ的那部分概率就是
β
\beta
β .
Φ
(
−
t
)
=
1
−
Φ
(
t
)
\Phi(-t)=1-\Phi(t)
Φ(−t)=1−Φ(t)
参考文章:
[推断统计] 求区间估计:枢轴量法
枢纽变量法
例子说明:
设
X
1
,
…
,
X
n
X_1,\dots,X_n
X1,…,Xn为抽自正态总体
N
(
μ
,
σ
2
)
N(\mu,\sigma^2)
N(μ,σ2)的样本,
σ
2
\sigma^2
σ2已知,求
μ
\mu
μ的区间估计。
1、 先找一个
μ
\mu
μ的良好的点估计,选择样本均值
X
‾
\overline{X}
X.
2、 由总体为正态可知:
n
(
X
‾
−
μ
)
/
σ
∼
N
(
0
,
1
)
\sqrt{n}(\overline{X}-\mu)/\sigma\sim N(0,1)
n(X−μ)/σ∼N(0,1)
3、 有: P ( − u α / 2 ≤ n ( X ‾ − μ ) / σ ≤ u α / 2 ) = Φ ( u α / 2 ) − Φ ( − u α / 2 ) = 1 − α P(-u_{\alpha/2}\leq \sqrt{n}(\overline{X}-\mu)/\sigma\leq u_{\alpha/2}) =\Phi(u_{\alpha/2})-\Phi(-u_{\alpha/2}) =1-\alpha P(−uα/2≤n(X−μ)/σ≤uα/2)=Φ(uα/2)−Φ(−uα/2)=1−α
4、得到区间估计: P ( X ‾ − σ u α / 2 / n ≤ μ ≤ X ‾ + σ u α / 2 / n ) = 1 − α P(\overline{X}-\sigma u_{\alpha/2}/\sqrt{n} \leq \mu \leq \overline{X}+\sigma u_{\alpha/2}/\sqrt{n}) = 1-\alpha P(X−σuα/2/n≤μ≤X+σuα/2/n)=1−α
[ θ ^ 1 , θ ^ 2 ] = [ X ‾ − σ u α / 2 / n , X ‾ + σ u α / 2 / n ] [\hat{\theta}_{1},\hat{\theta}_{2}]=[ \overline{X}-\sigma u_{\alpha/2}/\sqrt{n}, \overline{X}+\sigma u_{\alpha/2}/\sqrt{n}] [θ^1,θ^2]=[X−σuα/2/n,X+σuα/2/n]
步骤:
1、 找一个与要估计参数
g
(
θ
)
g(\theta)
g(θ)有关的统计量
T
T
T,一般是其一个良好的点估计;
2、 设法找出
T
T
T和
g
(
θ
)
g(\theta)
g(θ)的某一函数
S
(
T
,
g
(
θ
)
)
S(T,g(\theta))
S(T,g(θ)), 其分布
F
F
F要与
θ
\theta
θ无关。则
S
(
T
,
g
(
θ
)
)
S(T,g(\theta))
S(T,g(θ))称为枢纽变量。
3、 对任何常数
a
<
b
a<b
a<b,不等式
a
<
S
(
T
,
g
(
θ
)
)
<
b
a<S(T,g(\theta))<b
a<S(T,g(θ))<b要能改写为等价的形式:
A
<
g
(
θ
)
<
B
A<g(\theta)<B
A<g(θ)<B ,
A
,
B
A,B
A,B只与
T
,
a
,
b
T,a,b
T,a,b有关,而与
θ
\theta
θ无关。
4、 取分布
F
F
F的上
α
/
2
\alpha/2
α/2分位点
w
α
/
2
w_{\alpha/2}
wα/2和
1
−
α
/
2
1-\alpha/2
1−α/2分位点
w
1
−
α
/
2
w_{1-\alpha/2}
w1−α/2,则有
F
(
w
α
/
2
)
−
F
(
w
1
−
α
/
2
)
=
1
−
α
F(w_{\alpha/2})-F(w_{1-\alpha/2})=1-\alpha
F(wα/2)−F(w1−α/2)=1−α,因此
P
(
w
1
−
α
/
2
≤
S
(
T
,
g
(
θ
)
)
≤
w
α
/
2
)
=
1
−
α
P(w_{1-\alpha/2}\leq S(T,g(\theta))\leq w_{\alpha/2})=1-\alpha
P(w1−α/2≤S(T,g(θ))≤wα/2)=1−α
不等式改写,得到 [ A , B ] [A,B] [A,B]区间,该区间就是 g ( θ ) g(\theta) g(θ)的一个置信系数为 1 − α 1-\alpha 1−α的区间估计。
大样本法
利用极限分布,主要是中心极限定理,来建立枢纽变量。近似满足枢纽变量的条件。
例子说明:
某事件
A
A
A在每次试验中发生的概率为
p
p
p. 做
n
n
n次独立试验,以
Y
n
Y_n
Yn记
A
A
A发生的次数,求
p
p
p的区间估计。
根据定理:设
X
1
,
…
,
X
n
X_1,\dots,X_n
X1,…,Xn独立同分布,
X
i
X_i
Xi的分布是
P
(
X
i
=
1
)
=
p
,
P
(
X
i
=
0
)
=
1
−
p
,
(
0
<
p
<
1
)
P(X_i=1)=p,P(X_i=0)=1-p ,(0<p<1)
P(Xi=1)=p,P(Xi=0)=1−p,(0<p<1). 则对任何实数
x
x
x, 有
lim
n
→
∞
P
(
1
n
p
(
1
−
p
)
(
X
1
+
⋯
+
X
n
−
n
p
)
≤
x
)
=
Φ
(
x
)
\lim\limits_{n\rightarrow \infty }P(\frac{1}{\sqrt{np(1-p)}}(X_1+\dots+X_n-np)\leq x )=\Phi(x)
n→∞limP(np(1−p)1(X1+⋯+Xn−np)≤x)=Φ(x)
可知:
(
Y
n
−
n
p
)
/
n
p
(
1
−
p
)
∼
N
(
0
,
1
)
(Y_n-np)/\sqrt{np(1-p)}\sim N(0,1)
(Yn−np)/np(1−p)∼N(0,1)
于是枢纽变量为
(
Y
n
−
n
p
)
/
n
p
(
1
−
p
)
∼
N
(
0
,
1
)
(Y_n-np)/\sqrt{np(1-p)}\sim N(0,1)
(Yn−np)/np(1−p)∼N(0,1).
由:
P
(
−
u
α
/
2
≤
(
Y
n
−
n
p
)
/
n
p
(
1
−
p
)
≤
u
α
/
2
)
≈
1
−
α
P(-u_{\alpha/2}\leq (Y_n-np)/ \sqrt{np(1-p)}\leq u_{\alpha/2})\approx 1-\alpha
P(−uα/2≤(Yn−np)/np(1−p)≤uα/2)≈1−α,
可改写为:
P
(
a
≤
p
≤
B
)
≈
1
−
α
P(a\leq p \leq B)\approx 1-\alpha
P(a≤p≤B)≈1−α,
其中
A
A
A和
B
B
B是二次方程
(
Y
n
−
n
p
)
2
/
n
p
(
1
−
p
)
=
u
α
/
2
2
(Y_n-np)^2/\sqrt{np(1-p)}=u^{2}_{\alpha/2}
(Yn−np)2/np(1−p)=uα/22的两个根。
解为:
A
,
B
=
n
n
+
u
α
/
2
2
(
p
^
+
u
α
/
2
2
2
n
±
u
α
/
2
p
^
(
1
−
p
^
)
n
+
u
α
/
2
2
4
n
2
)
A,B=\frac{n}{n+u^{2}_{\alpha/2}}(\hat{p}+\frac{u^{2}_{\alpha/2}}{2n}\pm u_{\alpha/2} \sqrt{\frac{\hat{p}(1-\hat{p})}{n}+\frac{u^{2}_{\alpha/2}}{4n^2}})
A,B=n+uα/22n(p^+2nuα/22±uα/2np^(1−p^)+4n2uα/22),其中
p
^
=
Y
n
/
n
\hat{p}=Y_n/n
p^=Yn/n。
分析: 得到的结果为近似的,故区间估计的置信系数也之时近似地等于 1 − α 1-\alpha 1−α。
置信界
单侧置信区间,只关心某一侧的界限。特殊的置信区间,无非是一侧变成
∞
\infty
∞或
−
∞
-\infty
−∞
定义:设
X
1
,
…
,
X
n
X_1,\dots,X_n
X1,…,Xn是从某一总体中抽出来的样本,总体分布包含未知参数
θ
\theta
θ,
θ
‾
=
θ
‾
(
X
1
,
…
,
X
n
)
\overline{\theta}=\overline{\theta}(X_1,\dots,X_n)
θ=θ(X1,…,Xn)和
θ
‾
=
θ
‾
(
X
1
,
…
,
X
n
)
\underline{\theta}=\underline{\theta}(X_1,\dots,X_n)
θ=θ(X1,…,Xn)都是统计量(它们与
θ
\theta
θ无关),则
1、 若对
θ
\theta
θ的一切可取的值,有
P
0
(
θ
‾
=
θ
‾
(
X
1
,
…
,
X
n
)
≥
θ
)
=
1
−
α
P_0(\overline{\theta}=\overline{\theta}(X_1,\dots,X_n)\geq\theta)=1-\alpha
P0(θ=θ(X1,…,Xn)≥θ)=1−α ,则称
θ
‾
\overline \theta
θ是
θ
\theta
θ的一个置信系数为
1
−
α
1-\alpha
1−α的置信上界;
2、 若对
θ
\theta
θ的一切可取的值,有
P
0
(
θ
‾
=
θ
‾
(
X
1
,
…
,
X
n
)
≤
θ
)
=
1
−
α
P_0(\underline{\theta}=\underline{\theta}(X_1,\dots,X_n)\leq\theta)=1-\alpha
P0(θ=θ(X1,…,Xn)≤θ)=1−α,则称
θ
‾
\underline\theta
θ是
θ
\theta
θ的一个置信系数为
1
−
α
1-\alpha
1−α的置信下界。
贝叶斯法
在有了先验分布密度 h ( θ ) h(\theta) h(θ)和样本KaTeX parse error: Undefined control sequence: \X at position 11: X_1,\dots,\̲X̲_n后,算出后验密度 h ( θ ∣ X 1 , … , X n ) h(\theta |X_1,\dots,X_n) h(θ∣X1,…,Xn). 再找两个数 θ ^ 1 \hat {\theta}_1 θ^1和 θ ^ 2 \hat {\theta}_2 θ^2都与KaTeX parse error: Undefined control sequence: \X at position 11: X_1,\dots,\̲X̲_n使得 ∫ θ ^ 1 θ ^ 2 h ( θ ∣ X 1 , … , X n ) d θ = 1 − α \int_{\hat {\theta}_1}^{\hat {\theta}_2}{h(\theta|X_1,\dots,X_n)}d\theta=1-\alpha ∫θ^1θ^2h(θ∣X1,…,Xn)dθ=1−α
那么区间 [ θ ^ 1 , θ ^ 2 ] [\hat {\theta}_1,\hat {\theta}_2] [θ^1,θ^2]的意思是:在所得后验分布下, θ \theta θ落在这个区间内的概率为 1 − α 1-\alpha 1−α.
假设检验
假设检验就是先对总体的某一参数做出假设,然后用样本的统计量去进行验证,以决定假设是否被总体所接受。
步骤:
1、 建立假设
原假设
H
0
H_{0}
H0和备择假设
H
1
H_{1}
H1
2、 寻找检验估计量
检验统计量来判断原假设的真伪
检验的临界值
c
c
c,拒绝原假设的样本观测值所组成的区域称为检验的拒绝域
W
W
W,保留原假设的样本观测值所组成的区域称为检验的接受域
A
A
A。
3、 显著性水平与临界值
H
0
H_{0}
H0为真但被拒绝的概率称为显著性水平
α
\alpha
α ;由此计算
c
c
c值
4、 做判断
两类错误
第一类错误:原假设
H
0
H_{0}
H0为真,所下的判断为拒绝
H
0
H_{0}
H0。犯第一类错误的概率为拒真概率,也就是显著性水平
α
\alpha
α.
第二类错误:原假设
H
0
H_{0}
H0为假,所下的判断为接受
H
0
H_{0}
H0。犯第二类错误的概率为取伪概率
β
\beta
β.
总是希望
α
\alpha
α和
β
\beta
β都很小,尽量是样本容量增大。
检验
检验就是指判断准则。
具体检验方法往后分析(往后章节)。