概率与统计之六
\color{green}\Large\textbf{概率与统计之六}
概率与统计之六
文章为一些读书笔记,原书为机械工业出版社的《概率论导论》Joseph K.Blizstein和Jessica Hwang著,案例讲解和讲述证明是本书的一大特点,教给人们的不只是一些概率论的概念和公式,而是思考问题的思维方式和策略。不过就是书里的错印有点多,需要边看边改。
_(:з」∠)
文章目录
一. 不等式与极限定理
此章主要介绍了一些对于不确定概率的估值方法
1. 柯西施瓦茨不等式
1). 不等式定义
该不等式在不同的数学应用场景下有不同的表达方式,在概率学中的定义为
对
任
意
的
随
机
变
量
X
和
Y
,
X
和
Y
的
方
差
有
限
,
都
有
∣
E
(
X
Y
)
∣
≤
E
(
X
2
)
E
(
Y
2
)
,
对
于
样
本
向
量
x
,
y
而
言
这
其
实
就
是
∣
<
x
,
y
>
∣
≤
∣
∣
x
∣
∣
⋅
∣
∣
y
∣
∣
对任意的随机变量X和Y,X和Y的方差有限,都有|E(XY)|\leq \sqrt{E(X^2)E(Y^2)},\\ 对于样本向量x,y而言这其实就是|<x,y>|\leq ||x||\cdot||y||
对任意的随机变量X和Y,X和Y的方差有限,都有∣E(XY)∣≤E(X2)E(Y2),对于样本向量x,y而言这其实就是∣<x,y>∣≤∣∣x∣∣⋅∣∣y∣∣
如
果
X
与
Y
的
期
望
为
0
,
那
么
C
o
v
(
X
,
Y
)
=
E
(
X
Y
)
−
E
(
X
)
E
(
Y
)
=
E
(
X
Y
)
,
E
(
X
2
)
=
V
a
r
(
X
)
,
E
(
Y
2
)
=
V
a
r
(
Y
)
,
于
是
∣
C
o
r
r
(
X
,
Y
)
∣
=
∣
C
o
v
(
X
,
Y
)
∣
V
a
r
(
X
)
V
a
r
(
Y
)
=
∣
E
(
X
Y
)
∣
E
(
X
2
)
E
(
Y
2
)
≤
1
⟹
−
1
≤
C
o
r
r
(
X
,
Y
)
≤
1
,
这
是
我
们
非
常
熟
悉
的
统
计
解
释
如果X与Y的期望为0,那么Cov(X,Y)=E(XY)-E(X)E(Y)=E(XY),E(X^2)=Var(X),E(Y^2)=Var(Y),\\ 于是\displaystyle |Corr(X,Y)|=\frac{|Cov(X,Y)|}{\sqrt{Var(X)Var(Y)}}=\frac{|E(XY)|}{\sqrt{E(X^2)E(Y^2)}}\leq1\implies -1\leq Corr(X,Y)\leq1,\\这是我们非常熟悉的统计解释
如果X与Y的期望为0,那么Cov(X,Y)=E(XY)−E(X)E(Y)=E(XY),E(X2)=Var(X),E(Y2)=Var(Y),于是∣Corr(X,Y)∣=Var(X)Var(Y)∣Cov(X,Y)∣=E(X2)E(Y2)∣E(XY)∣≤1⟹−1≤Corr(X,Y)≤1,这是我们非常熟悉的统计解释
2). 二阶矩法
此法主要是对非负随机变量
X
X
X要求
P
(
X
=
0
)
P(X=0)
P(X=0)的上限
这
里
设
了
一
个
示
性
变
量
I
(
X
>
0
)
即
X
>
0
时
I
=
1
,
X
=
0
时
I
=
0
,
设
X
=
X
I
不
难
看
出
{
X
>
0
I
=
0
⇒
X
I
=
X
X
=
0
X
I
=
0
⇒
X
=
X
I
于
是
E
(
X
)
=
E
(
X
I
)
≤
E
(
X
2
)
E
(
I
2
)
=
E
(
X
2
)
P
(
X
>
0
)
⇒
P
(
X
>
0
)
≥
E
2
(
X
)
E
(
X
2
)
或
者
1
−
P
(
X
>
0
)
≤
1
−
E
2
(
X
)
E
(
X
2
)
⇒
P
(
X
=
0
)
≤
V
a
r
(
X
)
E
(
X
2
)
,
这
种
约
束
方
法
便
是
二
阶
矩
法
,
接
下
来
只
需
确
定
随
机
变
量
X
的
类
型
或
构
造
即
可
\begin{aligned} &这里设了一个示性变量I(X>0)即X>0时I=1,X=0时I=0,设X=XI不难看出 \begin{cases}X>0& I=0\Rightarrow XI=X\\ X=0&XI=0\Rightarrow X=XI \end{cases}\\ &于是E(X)=E(XI)\leq \sqrt{E(X^2)E(I^2)}=\sqrt{E(X^2)P(X>0)}\Rightarrow P(X>0)\geq \frac{E^2(X)}{E(X^2)}\\ &或者1-P(X>0)\leq1-\frac{E^2(X)}{E(X^2)}\Rightarrow P(X=0)\leq \frac{Var(X)}{E(X^2)},这种约束方法便是二阶矩法,接下来只需确定随机变量X\\ &的类型或构造即可 \end{aligned}
这里设了一个示性变量I(X>0)即X>0时I=1,X=0时I=0,设X=XI不难看出{X>0X=0I=0⇒XI=XXI=0⇒X=XI于是E(X)=E(XI)≤E(X2)E(I2)=E(X2)P(X>0)⇒P(X>0)≥E(X2)E2(X)或者1−P(X>0)≤1−E(X2)E2(X)⇒P(X=0)≤E(X2)Var(X),这种约束方法便是二阶矩法,接下来只需确定随机变量X的类型或构造即可
3). 联合矩母函数的存在
令
X
1
和
X
2
是
联
合
分
布
的
随
机
变
量
。
是
否
独
立
是
否
同
分
布
无
关
,
所
有
情
况
皆
可
。
如
果
X
1
和
X
2
的
边
缘
矩
母
函
数
都
存
在
,
那
么
随
机
向
量
(
X
1
,
X
2
)
的
联
合
矩
母
函
数
存
在
令X_1和X_2是联合分布的随机变量。是否独立是否同分布无关,所有情况皆可。如果X_1和X_2的边缘矩母函数都存在,\\ 那么随机向量(X_1,X_2)的联合矩母函数存在
令X1和X2是联合分布的随机变量。是否独立是否同分布无关,所有情况皆可。如果X1和X2的边缘矩母函数都存在,那么随机向量(X1,X2)的联合矩母函数存在
联
合
矩
母
函
数
的
形
式
为
M
(
s
,
t
)
=
E
(
e
s
X
1
+
t
X
2
)
,
要
证
明
其
存
在
便
是
要
证
明
该
式
子
在
原
点
附
近
的
区
域
内
有
限
于
是
通
过
柯
西
施
瓦
茨
不
等
式
E
(
e
s
X
1
+
t
X
2
)
≤
E
(
e
2
s
X
1
)
E
(
e
2
t
X
2
)
便
能
证
明
这
一
点
\begin{aligned} &联合矩母函数的形式为M(s,t)=E(e^{sX_1+tX_2}),要证明其存在便是要证明该式子在原点附近的区域内有限\\ &于是通过柯西施瓦茨不等式E(e^{sX_1+tX_2})\leq \sqrt{E(e^{2sX_1})E(e^{2tX_2})}便能证明这一点\end{aligned}
联合矩母函数的形式为M(s,t)=E(esX1+tX2),要证明其存在便是要证明该式子在原点附近的区域内有限于是通过柯西施瓦茨不等式E(esX1+tX2)≤E(e2sX1)E(e2tX2)便能证明这一点
4). 证明过程
其实柯西施瓦茨不等式没啥好多说的,不过书中对于它的证明倒是挺有意思,
对
于
任
意
t
有
0
≤
E
(
Y
−
t
X
)
2
=
E
(
Y
2
)
−
2
t
E
(
X
Y
)
+
t
2
E
(
X
2
)
,
这
个
式
子
成
立
是
显
而
易
见
的
因
为
非
负
变
量
的
均
值
不
可
能
小
于
0
,
关
键
在
于
t
的
求
值
,
很
明
显
右
式
的
最
小
值
也
会
不
小
于
0
,
那
么
要
求
右
式
的
最
小
值
无
外
乎
就
是
对
t
求
导
,
因
为
其
余
的
变
量
期
望
都
是
固
定
的
常
数
值
,
于
是
可
得
t
=
E
(
X
Y
)
E
(
X
2
)
,
将
其
代
回
到
右
式
进
而
化
简
便
可
得
到
不
等
式
的
最
终
表
示
形
态
对于任意t有0\leq E(Y-tX)^2=E(Y^2)-2tE(XY)+t^2E(X^2),这个式子成立是显而易见的因为非负变量的均值\\ 不可能小于0,关键在于t的求值,很明显右式的最小值也会不小于0,那么要求右式的最小值无外乎就是对t求导,\\ 因为其余的变量期望都是固定的常数值,于是可得\displaystyle t=\frac{E(XY)}{E(X^2)},将其代回到右式进而化简便可得到不等式的\\最终表示形态
对于任意t有0≤E(Y−tX)2=E(Y2)−2tE(XY)+t2E(X2),这个式子成立是显而易见的因为非负变量的均值不可能小于0,关键在于t的求值,很明显右式的最小值也会不小于0,那么要求右式的最小值无外乎就是对t求导,因为其余的变量期望都是固定的常数值,于是可得t=E(X2)E(XY),将其代回到右式进而化简便可得到不等式的最终表示形态
2. 詹森不等式
1). 定义
设
X
为
一
个
随
机
变
量
。
那
么
{
E
(
g
(
X
)
)
≥
g
(
E
(
X
)
)
当
g
为
下
凸
函
数
E
(
g
(
X
)
)
≤
g
(
E
(
X
)
)
当
g
为
上
凸
函
数
E
(
g
(
X
)
)
=
g
(
E
(
X
)
)
当
g
为
直
线
函
数
简
单
来
说
这
是
随
机
分
布
中
对
凹
凸
函
数
的
一
个
利
用
,
证
明
也
比
较
简
单
,
令
μ
=
E
(
X
)
,
考
虑
点
c
=
(
μ
,
g
(
μ
)
)
,
显
然
点
c
即
在
曲
线
g
(
x
)
上
又
在
g
(
x
)
在
c
点
的
切
线
上
,
用
a
+
b
x
表
示
这
条
切
线
。
那
么
X
轴
在
μ
处
有
a
+
b
μ
=
g
(
μ
)
,
于
是
对
于
上
凸
函
数
始
终
有
g
(
x
)
≤
a
+
b
x
,
左
右
取
数
学
期
望
有
E
(
g
(
X
)
)
≤
E
(
a
+
b
X
)
=
a
+
b
E
(
X
)
=
a
+
b
μ
=
g
(
μ
)
=
g
(
E
(
X
)
)
对
于
下
凸
函
数
始
终
有
g
(
x
)
≥
a
+
b
x
,
左
右
取
数
学
期
望
有
E
(
g
(
X
)
)
≥
E
(
a
+
b
X
)
=
a
+
b
E
(
X
)
=
a
+
b
μ
=
g
(
μ
)
=
g
(
E
(
X
)
)
对
于
直
线
,
g
(
x
)
=
a
+
b
x
,
左
右
取
数
学
期
望
有
E
(
g
(
X
)
)
=
E
(
a
+
b
X
)
=
a
+
b
E
(
X
)
=
a
+
b
μ
=
g
(
μ
)
=
g
(
E
(
X
)
)
\begin{aligned} &设X为一个随机变量。那么 \begin{cases} E(g(X))\geq g(E(X)) &当g为下凸函数\\ E(g(X))\leq g(E(X)) &当g为上凸函数\\ E(g(X))= g(E(X)) &当g为直线函数\\ \end{cases}\\ &简单来说这是随机分布中对凹凸函数的一个利用,证明也比较简单,\\ &令\mu=E(X),考虑点c=(\mu,g(\mu)),显然点c即在曲线g(x)上又在g(x)在c点的切线上,用a+bx表示这条切线。\\ &那么X轴在\mu处有a+b\mu=g(\mu),于是\\ &对于\textcolor{blue}{上凸函数}始终有g(x)\leq a+bx,左右取数学期望有E(g(X))\leq E(a+bX)=a+bE(X)=a+b\mu=g(\mu)=g(E(X))\\ &对于\textcolor{blue}{下凸函数}始终有g(x)\geq a+bx,左右取数学期望有E(g(X))\geq E(a+bX)=a+bE(X)=a+b\mu=g(\mu)=g(E(X))\\ &对于\textcolor{blue}{直线},g(x)=a+bx,左右取数学期望有E(g(X))= E(a+bX)=a+bE(X)=a+b\mu=g(\mu)=g(E(X))\\ \end{aligned}
设X为一个随机变量。那么⎩⎪⎨⎪⎧E(g(X))≥g(E(X))E(g(X))≤g(E(X))E(g(X))=g(E(X))当g为下凸函数当g为上凸函数当g为直线函数简单来说这是随机分布中对凹凸函数的一个利用,证明也比较简单,令μ=E(X),考虑点c=(μ,g(μ)),显然点c即在曲线g(x)上又在g(x)在c点的切线上,用a+bx表示这条切线。那么X轴在μ处有a+bμ=g(μ),于是对于上凸函数始终有g(x)≤a+bx,左右取数学期望有E(g(X))≤E(a+bX)=a+bE(X)=a+bμ=g(μ)=g(E(X))对于下凸函数始终有g(x)≥a+bx,左右取数学期望有E(g(X))≥E(a+bX)=a+bE(X)=a+bμ=g(μ)=g(E(X))对于直线,g(x)=a+bx,左右取数学期望有E(g(X))=E(a+bX)=a+bE(X)=a+bμ=g(μ)=g(E(X))
个人的一个对詹森不等式很不严谨但是比较直观的理解
如果我们用最直观的看法去看待詹森不等式便如上图,
- 假定 X X X为均匀分布,一般我们认为定义域的均值常在曲线的中心附近,那么 g ( E ( X ) ) g(E(X)) g(E(X))的取值便是在值域的低端(下凸函数)或者顶点附近(上凸函数),
- 而值域的均值 E ( g ( X ) ) E(g(X)) E(g(X))常在值域的中心附近
- 于是对于上凸函数 E ( g ( X ) ) ≤ g ( E ( X ) ) E(g(X))\leq g(E(X)) E(g(X))≤g(E(X))而下凸函数 E ( g ( X ) ) ≥ g ( E ( X ) ) E(g(X))\geq g(E(X)) E(g(X))≥g(E(X))
2). 例子
- E ∣ X ∣ ≥ ∣ E X ∣ g ( x ) = ∣ x ∣ 为 下 凸 函 数 E|X|\geq |EX|\quad g(x)=|x|为下凸函数 E∣X∣≥∣EX∣g(x)=∣x∣为下凸函数
- E ( 1 / X ) ≥ 1 / ( E X ) , 对 于 正 的 随 机 变 量 g ( x ) = 1 x , x > 0 为 下 凸 函 数 E(1/X)\geq 1/(EX),对于正的随机变量\quad \displaystyle g(x)=\frac{1}{x},x>0为下凸函数 E(1/X)≥1/(EX),对于正的随机变量g(x)=x1,x>0为下凸函数
- E ( l n ( X ) ) ≤ l n ( E X ) , 对 于 正 的 随 机 变 量 g ( x ) = l n ( x ) , x > 0 为 上 凸 函 数 E(ln(X))\leq ln(EX),对于正的随机变量\quad g(x)=ln(x),x>0为上凸函数 E(ln(X))≤ln(EX),对于正的随机变量g(x)=ln(x),x>0为上凸函数
- 样 本 标 准 差 的 偏 差 , 样 本 方 差 S n 2 是 真 实 方 差 的 无 偏 估 计 , 即 E ( S n 2 ) = σ 2 , 但 样 本 标 准 差 却 不 是 真 实 标 准 差 的 无 偏 估 计 , 具 体 来 讲 是 E ( S n ) = E ( S n 2 ) ≤ E ( S n 2 ) = σ 2 = σ , 也 就 是 说 样 本 标 准 差 往 往 低 估 于 真 正 的 标 准 差 , 不 过 如 果 样 本 量 相 当 大 , 则 偏 差 通 常 很 小 样本标准差的偏差,样本方差S_n^2是真实方差的无偏估计,即E(S_n^2)=\sigma^2,但样本标准差却不是真实标准差的\\ 无偏估计,具体来讲是E(S_n)=E(\sqrt{S_n^2})\leq\sqrt{E(S_n^2)}=\sqrt{\sigma^2}=\sigma,也就是说样本标准差往往低估于真正的\\标准差,不过如果样本量相当大,则偏差通常很小 样本标准差的偏差,样本方差Sn2是真实方差的无偏估计,即E(Sn2)=σ2,但样本标准差却不是真实标准差的无偏估计,具体来讲是E(Sn)=E(Sn2)≤E(Sn2)=σ2=σ,也就是说样本标准差往往低估于真正的标准差,不过如果样本量相当大,则偏差通常很小
3). 熵
熵最早是物理学中的概念,后来引入到信息论中,放到概率学中,其表示对于一个以某种概率发生的事件或者某一随机分布所蕴含的信息量的估计
定
义
发
生
概
率
为
p
的
事
件
的
熵
为
l
o
g
2
(
1
/
p
)
\textcolor{blue}{定义发生概率为p的事件的熵为log_2(1/p)}
定义发生概率为p的事件的熵为log2(1/p)
- 显 然 p 越 小 , 熵 越 大 , 即 事 件 越 不 可 能 发 生 它 的 熵 值 就 越 大 显然p越小,熵越大,即事件越不可能发生它的熵值就越大 显然p越小,熵越大,即事件越不可能发生它的熵值就越大
- 而 当 p = 1 时 , 即 事 件 百 分 百 可 能 发 生 时 , 那 么 熵 值 为 0 而当p=1时,即事件百分百可能发生时,那么熵值为0 而当p=1时,即事件百分百可能发生时,那么熵值为0
直观上来看就是一个事件越直接越容易发生,那它所隐藏的内部信息就越少,如果一个事件的可能性越多,那它的隐情就越多,也就是内涵的信息就越多
定
义
随
机
变
量
的
熵
\textcolor{blue}{定义随机变量的熵}
定义随机变量的熵
令
X
为
一
离
散
型
随
机
变
量
,
其
不
同
的
可
能
取
值
是
a
1
,
a
2
,
⋯
a
n
,
其
概
率
分
别
为
p
1
,
p
2
,
⋯
p
n
,
且
p
1
+
p
2
+
⋯
+
p
n
=
1
。
将
X
取
不
同
值
时
的
熵
的
平
均
值
定
义
为
X
的
熵
。
表
达
式
为
H
(
X
)
=
∑
j
=
1
n
p
j
l
o
g
2
(
1
/
p
j
)
。
可
以
看
到
X
的
熵
只
与
概
率
p
j
有
关
,
并
且
利
用
詹
森
不
等
式
可
以
证
明
当
X
为
均
匀
分
布
变
量
时
,
H
(
X
)
取
最
大
值
同
样
直
观
上
来
讲
,
如
果
X
能
任
意
取
到
的
结
果
越
多
,
那
它
覆
盖
的
信
息
量
就
越
大
,
而
如
果
它
被
限
制
到
只
能
取
几
个
少
数
的
结
果
,
那
很
显
然
它
所
覆
盖
的
信
息
就
越
少
,
因
为
就
那
么
一
两
种
可
能
自
然
没
啥
信
息
\begin{aligned} &令X为一离散型随机变量,其不同的可能取值是a_1,a_2,\cdots a_n,其概率分别为p_1,p_2,\cdots p_n,且p1+p_2+\cdots+p_n=1。\\ &将X取不同值时的熵的平均值定义为X的熵。表达式为H(X)=\sum_{j=1}^np_jlog_2(1/p_j)。\\ &可以看到X的熵只与概率p_j有关,并且利用詹森不等式可以证明当X为均匀分布变量时,H(X)取最大值\\ &同样直观上来讲,如果X能任意取到的结果越多,那它覆盖的信息量就越大,而如果它被限制到只能取几个少数的结果,\\ &那很显然它所覆盖的信息就越少,因为就那么一两种可能自然没啥信息 \end{aligned}
令X为一离散型随机变量,其不同的可能取值是a1,a2,⋯an,其概率分别为p1,p2,⋯pn,且p1+p2+⋯+pn=1。将X取不同值时的熵的平均值定义为X的熵。表达式为H(X)=j=1∑npjlog2(1/pj)。可以看到X的熵只与概率pj有关,并且利用詹森不等式可以证明当X为均匀分布变量时,H(X)取最大值同样直观上来讲,如果X能任意取到的结果越多,那它覆盖的信息量就越大,而如果它被限制到只能取几个少数的结果,那很显然它所覆盖的信息就越少,因为就那么一两种可能自然没啥信息
4). 库尔贝克莱布勒差异
库尔贝克莱布勒差异是熵的一个重要应用
定义
令
p
=
(
p
1
,
⋯
,
p
n
)
和
r
=
(
r
1
,
⋯
,
r
n
)
是
两
个
概
率
向
量
,
也
就
是
说
向
量
中
的
分
量
不
会
小
于
0
,
且
总
和
为
1
。
把
它
们
看
成
是
一
个
随
机
变
量
可
能
的
概
率
质
量
函
数
,
其
支
撑
集
由
n
个
不
同
的
值
组
成
。
向
量
p
与
r
之
间
的
(
库
尔
贝
克
莱
布
勒
)
差
异
被
定
义
为
D
(
p
,
r
)
=
∑
j
=
1
n
p
j
l
o
g
2
(
1
r
j
)
−
∑
j
=
1
n
p
j
l
o
g
2
(
1
p
j
)
=
∑
j
=
1
n
p
j
l
o
g
2
(
p
j
r
j
)
=
−
∑
j
=
1
n
p
j
l
o
g
2
(
r
j
p
j
)
这
是
当
实
际
概
率
为
p
,
却
使
用
了
r
作
为
概
率
时
,
平
均
熵
之
间
的
差
异
,
简
单
来
说
就
是
实
际
概
率
p
与
推
测
概
率
r
。
而
平
均
熵
是
由
p
来
决
定
的
也
就
是
说
每
一
个
事
件
发
生
的
概
率
仍
然
是
p
j
,
它
在
所
有
发
生
的
事
件
中
所
占
的
比
例
仍
然
是
p
j
,
我
们
只
是
把
它
推
测
为
r
j
,
这
就
是
为
什
么
求
r
的
平
均
熵
时
,
p
j
l
o
g
2
(
1
r
j
)
中
表
示
所
占
比
例
的
概
率
是
p
j
令p=(p_1,\cdots,p_n)和r=(r_1,\cdots,r_n)是两个概率向量,也就是说向量中的分量不会小于0,且总和为1。\\把它们看成是一个随机变量可能的概率质量函数,其支撑集由n个不同的值组成。\\向量p与r之间的(库尔贝克莱布勒)差异被定义为\\ \displaystyle D(p,r)=\sum_{j=1}^n p_j log_2(\frac{1}{r_j}) - \sum_{j=1}^n p_j log_2(\frac{1}{p_j})=\sum_{j=1}^np_jlog_2(\frac{p_j}{r_j})=-\sum_{j=1}^np_jlog_2(\frac{r_j}{p_j})\\ 这是当实际概率为p,却使用了r作为概率时,平均熵之间的差异,简单来说就是实际概率p与推测概率r。\\而平均熵是由p来决定的 也就是说每一个事件发生的概率仍然是p_j,它在所有发生的事件中所占的比例仍然是p_j,\\我们只是把它推测为r_j, 这就是为什么求r的平均熵时,p_jlog_2{(\frac{1}{r_j})}中表示所占比例的概率是p_j
令p=(p1,⋯,pn)和r=(r1,⋯,rn)是两个概率向量,也就是说向量中的分量不会小于0,且总和为1。把它们看成是一个随机变量可能的概率质量函数,其支撑集由n个不同的值组成。向量p与r之间的(库尔贝克莱布勒)差异被定义为D(p,r)=j=1∑npjlog2(rj1)−j=1∑npjlog2(pj1)=j=1∑npjlog2(rjpj)=−j=1∑npjlog2(pjrj)这是当实际概率为p,却使用了r作为概率时,平均熵之间的差异,简单来说就是实际概率p与推测概率r。而平均熵是由p来决定的也就是说每一个事件发生的概率仍然是pj,它在所有发生的事件中所占的比例仍然是pj,我们只是把它推测为rj,这就是为什么求r的平均熵时,pjlog2(rj1)中表示所占比例的概率是pj
差异是非负的
很
明
显
当
预
测
的
概
率
r
与
p
完
全
一
致
时
,
D
(
p
,
r
)
=
0
,
而
这
也
是
平
均
熵
差
异
的
最
小
值
,
也
就
是
说
平
均
熵
差
异
是
非
负
的
证
明
:
可
以
把
r
j
p
j
看
做
是
一
个
随
机
变
量
中
的
取
值
,
设
Y
是
以
概
率
p
j
取
值
为
r
j
p
j
的
随
机
变
量
,
所
以
D
(
p
,
r
)
=
−
E
(
l
o
g
2
(
Y
)
)
⇒
由
詹
森
不
等
式
−
E
(
l
o
g
2
(
Y
)
)
≥
−
l
o
g
2
(
E
(
Y
)
)
,
同
时
E
(
Y
)
=
∑
j
=
1
n
p
j
⋅
r
j
p
j
=
∑
j
=
1
n
r
j
=
1
所
以
D
(
p
,
r
)
=
−
E
(
l
o
g
2
(
Y
)
)
≥
−
l
o
g
2
(
E
(
Y
)
)
=
−
l
o
g
2
(
1
)
=
0
,
说
明
错
误
概
率
比
正
确
概
率
具
有
更
高
的
平
均
熵
很明显当预测的概率r与p完全一致时,D(p,r)=0,而这也是平均熵差异的最小值,也就是说平均熵差异\\是非负的\\ 证明:\\ 可以把\displaystyle \frac{r_j}{p_j}看做是一个随机变量中的取值,设Y是以概率p_j取值为\frac{r_j}{p_j}的随机变量,所以\\ D(p,r)=-E(log_2(Y))\xRightarrow{由詹森不等式}-E(log_2(Y))\geq -log_2(E(Y)),同时E(Y)=\sum_{j=1}^np_j\cdot\frac{r_j}{p_j}=\sum_{j=1}^nr_j=1\\ 所以D(p,r)=-E(log_2(Y))\geq -log_2(E(Y))=-log_2(1)=0,说明错误概率比正确概率具有更高的平均熵
很明显当预测的概率r与p完全一致时,D(p,r)=0,而这也是平均熵差异的最小值,也就是说平均熵差异是非负的证明:可以把pjrj看做是一个随机变量中的取值,设Y是以概率pj取值为pjrj的随机变量,所以D(p,r)=−E(log2(Y))由詹森不等式−E(log2(Y))≥−log2(E(Y)),同时E(Y)=j=1∑npj⋅pjrj=j=1∑nrj=1所以D(p,r)=−E(log2(Y))≥−log2(E(Y))=−log2(1)=0,说明错误概率比正确概率具有更高的平均熵
得分评价
如
果
一
道
题
,
不
是
直
接
选
择
正
确
答
案
,
而
是
改
为
为
每
一
个
选
项
进
行
概
率
评
价
,
比
如
最
有
可
能
的
选
项
的
概
率
就
越
高
,
然
后
对
于
每
一
个
选
项
的
概
率
取
其
对
数
为
该
选
项
的
分
数
,
比
如
一
个
选
项
的
分
数
为
l
o
g
2
(
r
j
)
,
而
r
j
就
是
给
该
选
项
预
测
的
概
率
对
于
每
一
个
选
项
的
分
数
由
于
r
j
的
取
值
区
间
为
[
0
,
1
]
,
所
以
l
o
g
2
(
r
j
)
的
可
能
值
得
范
围
为
[
0
,
−
∞
)
,
而
对
于
一
道
题
,
所
有
选
项
的
预
期
分
数
的
期
望
便
是
这
道
题
的
预
期
得
分
,
即
∑
j
=
1
n
p
j
l
o
g
2
(
r
j
)
,
其
中
p
j
为
每
个
选
项
的
真
实
概
率
,
而
一
道
题
的
真
实
得
分
为
∑
j
=
1
n
p
j
l
o
g
2
(
p
j
)
,
两
种
分
数
的
差
为
∑
j
=
1
n
p
j
l
o
g
2
(
r
j
)
−
∑
j
=
1
n
p
j
l
o
g
2
(
p
j
)
=
∑
j
=
1
n
p
j
l
o
g
2
(
r
j
p
j
)
很
显
然
这
个
差
跟
库
尔
贝
克
莱
布
勒
差
异
是
同
构
的
单
纯
从
式
子
上
看
就
是
−
D
(
p
,
r
)
,
于
是
∑
j
=
1
n
p
j
l
o
g
2
(
r
j
)
−
∑
j
=
1
n
p
j
l
o
g
2
(
p
j
)
≤
0
⟹
∑
j
=
1
n
p
j
l
o
g
2
(
r
j
)
≤
∑
j
=
1
n
p
j
l
o
g
2
(
p
j
)
也
就
是
说
预
期
得
分
不
会
大
于
真
实
得
分
,
而
预
期
得
分
的
最
大
值
即
是
真
实
得
分
,
是
在
r
=
p
时
取
到
\begin{aligned} &如果一道题,不是直接选择正确答案,而是改为为每一个选项进行概率评价,比如最有可能的选项的概率就越高,\\ &然后对于每一个选项的概率取其对数为该选项的分数,比如一个选项的分数为log_2(r_j),而r_j就是给该选项预测的概率\\ &对于每一个选项的分数由于r_j的取值区间为[0,1],所以log_2(r_j)的可能值得范围为[0,-\infty),而对于一道题,\\ &所有选项的预期分数的期望便是这道题的预期得分,即\sum_{j=1}^np_jlog_2(r_j),其中p_j为每个选项的真实概率,而一道题的\\ &真实得分为\sum_{j=1}^np_jlog_2(p_j),两种分数的差为\sum_{j=1}^np_jlog_2(r_j)-\sum_{j=1}^np_jlog_2(p_j)=\sum_{j=1}^np_jlog_2(\frac{r_j}{p_j})很显然这个差跟库尔贝克莱布勒差异是同构的\\ &单纯从式子上看就是-D(p,r),于是\sum_{j=1}^np_jlog_2(r_j)-\sum_{j=1}^np_jlog_2(p_j)\leq 0\implies\sum_{j=1}^np_jlog_2(r_j)\leq\sum_{j=1}^np_jlog_2(p_j)\\ &也就是说预期得分不会大于真实得分,而预期得分的最大值即是真实得分,是在r=p时取到 \end{aligned}
如果一道题,不是直接选择正确答案,而是改为为每一个选项进行概率评价,比如最有可能的选项的概率就越高,然后对于每一个选项的概率取其对数为该选项的分数,比如一个选项的分数为log2(rj),而rj就是给该选项预测的概率对于每一个选项的分数由于rj的取值区间为[0,1],所以log2(rj)的可能值得范围为[0,−∞),而对于一道题,所有选项的预期分数的期望便是这道题的预期得分,即j=1∑npjlog2(rj),其中pj为每个选项的真实概率,而一道题的真实得分为j=1∑npjlog2(pj),两种分数的差为j=1∑npjlog2(rj)−j=1∑npjlog2(pj)=j=1∑npjlog2(pjrj)很显然这个差跟库尔贝克莱布勒差异是同构的单纯从式子上看就是−D(p,r),于是j=1∑npjlog2(rj)−j=1∑npjlog2(pj)≤0⟹j=1∑npjlog2(rj)≤j=1∑npjlog2(pj)也就是说预期得分不会大于真实得分,而预期得分的最大值即是真实得分,是在r=p时取到
3. 马尔可夫不等式,切比雪夫不等式,切尔诺夫不等式
1). 马尔可夫不等式
对 于 任 意 随 机 变 量 X 和 常 数 a > 0 有 P ( ∣ X ∣ ≥ a ) ≤ E ∣ X ∣ a 对于任意随机变量X和常数a>0有\displaystyle P(|X|\geq a)\leq\frac{E|X|}{a} 对于任意随机变量X和常数a>0有P(∣X∣≥a)≤aE∣X∣
2). 切比雪夫不等式
令 X 的 均 值 为 μ , 方 差 为 σ 2 。 那 么 对 任 何 一 个 a > 0 有 P ( ∣ X − μ ∣ ≥ a ) ≤ σ 2 a 2 用 c σ 代 替 a , 由 于 c > 0 , 则 有 切 比 雪 夫 不 等 式 的 等 价 形 式 : P ( ∣ X − μ ∣ ≥ c σ ) ≤ 1 c 2 令X的均值为\mu,方差为\sigma^2。那么对任何一个a>0有P(|X-\mu|\geq a)\leq \frac{\sigma^2}{a^2}\\ 用c\sigma代替a,由于c>0,则有切比雪夫不等式的等价形式:P(|X-\mu|\geq c\sigma)\leq \frac{1}{c^2} 令X的均值为μ,方差为σ2。那么对任何一个a>0有P(∣X−μ∣≥a)≤a2σ2用cσ代替a,由于c>0,则有切比雪夫不等式的等价形式:P(∣X−μ∣≥cσ)≤c21
3). 切尔诺夫不等式
对
任
意
随
机
变
量
X
,
常
数
a
>
0
和
t
>
0
,
有
P
(
X
≥
a
)
≤
E
(
e
t
X
)
e
t
a
对任意随机变量X,常数a>0和t>0,有P(X\geq a)\leq \frac{E(e^{tX})}{e^{ta}}
对任意随机变量X,常数a>0和t>0,有P(X≥a)≤etaE(etX)
性质
1.
右
边
可
以
关
于
t
进
行
优
化
,
并
给
出
严
格
上
界
右边可以关于t进行优化,并给出严格上界
右边可以关于t进行优化,并给出严格上界
2.
如
果
X
的
矩
母
函
数
存
在
,
那
么
分
子
的
界
限
就
是
矩
母
函
数
,
且
可
以
利
用
矩
母
函
数
的
一
些
有
用
的
性
质
如果X的矩母函数存在,那么分子的界限就是矩母函数,且可以利用矩母函数的一些有用的性质
如果X的矩母函数存在,那么分子的界限就是矩母函数,且可以利用矩母函数的一些有用的性质
4). 正态分布尾部概率的界限
令 Z ∼ N ( 0 , 1 ) 。 用 三 种 不 等 式 去 预 估 P ( ∣ Z ∣ > 3 ) 的 上 界 马 尔 可 夫 不 等 式 。 已 知 E ∣ Z ∣ = 2 π , 则 P ( ∣ Z ∣ > 3 ) ≤ E ∣ Z ∣ 3 = 1 3 ⋅ 2 π ≈ 0.27 切 比 雪 夫 不 等 式 。 P ( ∣ Z ∣ > 3 ) ≤ 1 9 ≈ 0.11 切 尔 诺 夫 不 等 式 。 P ( ∣ Z ∣ > 3 ) = 由 正 态 分 布 的 对 称 性 2 P ( Z > 3 ) ≤ 2 ⋅ E ( e t Z ) e − 3 t = 2 e − 3 t ⋅ e t 2 / 2 , 需 要 对 右 式 2 e − 3 t ⋅ e t 2 / 2 关 于 t 求 导 , 求 得 t = 3 时 2 e − 3 t ⋅ e t 2 / 2 得 最 小 值 , 而 这 个 最 小 值 便 是 P ( ∣ Z ∣ > 3 ) 的 上 界 , 将 t = 3 代 回 右 式 得 P ( ∣ Z ∣ > 3 ) ≤ 2 e − 9 / 2 ≈ 0.022 \begin{aligned} 令Z\thicksim N(0,1)。&用三种不等式去预估P(|Z|>3)的上界\\ \textcolor{blue}{马尔可夫不等式}。&已知E|Z|=\sqrt{\frac{2}{\pi}},则P(|Z|>3)\leq \frac{E|Z|}{3}=\frac{1}{3}\cdot\sqrt{\frac{2}{\pi}}\approx0.27\\ \textcolor{blue}{切比雪夫不等式}。&P(|Z|>3)\leq \frac{1}{9}\approx 0.11\\ \textcolor{blue}{切尔诺夫不等式}。&P(|Z|>3)\xlongequal{由正态分布的对称性}2P(Z>3)\leq 2\cdot \frac{E(e^{tZ})}{e^{-3t}}=2e^{-3t}\cdot e^{t^2/2},\\ &需要对右式2e^{-3t}\cdot e^{t^2/2}关于t求导,求得t=3时2e^{-3t}\cdot e^{t^2/2}得最小值,\\ &而这个最小值便是P(|Z|>3)的上界,将t=3代回右式得P(|Z|>3)\leq2e^{-9/2}\approx0.022 \end{aligned} 令Z∼N(0,1)。马尔可夫不等式。切比雪夫不等式。切尔诺夫不等式。用三种不等式去预估P(∣Z∣>3)的上界已知E∣Z∣=π2,则P(∣Z∣>3)≤3E∣Z∣=31⋅π2≈0.27P(∣Z∣>3)≤91≈0.11P(∣Z∣>3)由正态分布的对称性2P(Z>3)≤2⋅e−3tE(etZ)=2e−3t⋅et2/2,需要对右式2e−3t⋅et2/2关于t求导,求得t=3时2e−3t⋅et2/2得最小值,而这个最小值便是P(∣Z∣>3)的上界,将t=3代回右式得P(∣Z∣>3)≤2e−9/2≈0.022
4. 大数定律
1). 强大数定律
在 n → ∞ 时 , 样 本 均 值 X n − 收 敛 于 真 实 均 值 μ 的 概 率 为 1 。 换 句 话 说 , 事 件 X n − 的 概 率 为 1 在n\to \infty时,样本均值\overset{-}{X_n}收敛于真实均值\mu的概率为1。换句话说,事件\overset{-}{X_n}的概率为1 在n→∞时,样本均值Xn−收敛于真实均值μ的概率为1。换句话说,事件Xn−的概率为1
2). 弱大数定律
对 任 何 ε > 0 , P ( ∣ X n − − μ ∣ > ε ) → 0 , n → ∞ 。 这 种 形 式 的 收 敛 也 被 称 为 依 概 率 收 敛 对任何\varepsilon>0,P(|\overset{-}{X_n}-\mu|>\varepsilon)\to 0,n\to \infty。这种形式的收敛也被称为依概率收敛 对任何ε>0,P(∣Xn−−μ∣>ε)→0,n→∞。这种形式的收敛也被称为依概率收敛
5. 中心极限定理
令 X 1 , X 2 , X 3 , ⋯ 是 均 值 为 μ , 方 差 为 σ 2 的 独 立 同 分 布 随 机 变 量 序 列 。 X n − 为 样 本 均 值 , 对 于 大 的 n , 标 准 化 后 的 X n − 的 分 布 是 标 准 正 态 分 布 。 即 当 n → ∞ 时 , 有 n ( X n − − μ σ ) → N ( 0 , 1 ) 令X_1,X_2,X_3,\cdots是均值为\mu,方差为\sigma^2的独立同分布随机变量序列。\overset{-}{X_n}为样本均值,对于大的n,\\标准化后\displaystyle 的\overset{-}{X_n}的分布是标准正态分布。即当n\to \infty时,有\sqrt{n}(\frac{\overset{-}{X_n}-\mu}{\sigma})\to N(0,1) 令X1,X2,X3,⋯是均值为μ,方差为σ2的独立同分布随机变量序列。Xn−为样本均值,对于大的n,标准化后的Xn−的分布是标准正态分布。即当n→∞时,有n(σXn−−μ)→N(0,1)
中
心
极
限
定
理
的
扩
展
,
样
本
和
的
分
布
:
由
n
(
X
n
−
−
μ
σ
)
→
N
(
0
,
1
)
可
以
推
出
X
n
−
∼
N
(
μ
,
σ
2
n
)
,
而
W
n
=
X
1
+
⋯
+
X
n
=
n
X
n
−
,
可
以
看
做
是
X
n
−
尺
度
变
换
后
的
随
机
变
量
,
于
是
E
(
W
n
)
=
n
μ
,
V
a
r
(
W
n
)
=
n
2
V
a
r
(
X
n
−
)
=
n
σ
2
,
W
n
∼
N
(
n
μ
,
n
σ
2
)
,
于
是
证
明
样
本
和
同
样
服
从
正
态
分
布
\textcolor{blue}{中心极限定理的扩展,样本和的分布:}\\ 由\sqrt{n}(\frac{\overset{-}{X_n}-\mu}{\sigma})\to N(0,1)可以推出\overset{-}{X_n}\thicksim N(\mu,\frac{\sigma^2}{n}),而W_n=X_1+\cdots+X_n=n\overset{-}{X_n},可以看做是\overset{-}{X_n} 尺度变换后\\的随机变量,于是E(W_n)=n\mu,Var(W_n)=n^2Var(\overset{-}{X_n})=n\sigma^2,W_n\thicksim N(n\mu,n\sigma^2),于是证明样本和同样服从\\正态分布
中心极限定理的扩展,样本和的分布:由n(σXn−−μ)→N(0,1)可以推出Xn−∼N(μ,nσ2),而Wn=X1+⋯+Xn=nXn−,可以看做是Xn−尺度变换后的随机变量,于是E(Wn)=nμ,Var(Wn)=n2Var(Xn−)=nσ2,Wn∼N(nμ,nσ2),于是证明样本和同样服从正态分布
特
异
的
柯
西
分
布
,
中
心
极
限
定
理
的
要
求
和
弱
大
数
定
律
的
证
明
条
件
都
是
X
j
的
均
值
和
方
差
是
有
限
的
,
也
就
是
说
对
于
均
值
或
方
差
都
不
存
在
的
分
布
是
不
满
足
大
数
定
律
和
中
心
极
限
定
理
的
,
柯
西
分
布
就
是
这
种
分
布
,
事
实
上
n
个
柯
西
随
机
变
量
的
样
本
均
值
仍
然
服
从
柯
西
分
布
\textcolor{blue}{特异的柯西分布},中心极限定理的要求和弱大数定律的证明条件都是X_j的均值和方差是有限的,也就是说\\ 对于均值或方差都不存在的分布是不满足大数定律和中心极限定理的,柯西分布就是这种分布,事实上n个\\ 柯西随机变量的样本均值仍然服从柯西分布
特异的柯西分布,中心极限定理的要求和弱大数定律的证明条件都是Xj的均值和方差是有限的,也就是说对于均值或方差都不存在的分布是不满足大数定律和中心极限定理的,柯西分布就是这种分布,事实上n个柯西随机变量的样本均值仍然服从柯西分布
6. 卡方分布和t分布
1). 卡方分布
定义:
令
V
=
Z
1
2
+
Z
2
2
+
⋯
+
Z
n
2
,
且
Z
1
,
Z
2
,
⋯
Z
n
是
独
立
同
分
布
与
标
准
正
态
随
机
分
布
N
(
0
,
1
)
的
随
机
变
量
,
则
称
V
服
从
自
由
度
为
n
的
卡
方
分
布
。
记
作
V
∼
χ
n
2
。
也
可
写
作
V
∼
χ
2
(
v
)
,
其
中
v
代
替
n
为
自
由
度
令V=Z_1^2+Z_2^2+\cdots+Z_n^2,且Z_1,Z_2,\cdots Z_n是独立同分布与标准正态随机分布N(0,1)的随机变量,\\则称V服从自由度为n的卡方分布。记作V\thicksim \chi_n^2。也可写作V\thicksim\chi^2(v),其中v代替n为自由度
令V=Z12+Z22+⋯+Zn2,且Z1,Z2,⋯Zn是独立同分布与标准正态随机分布N(0,1)的随机变量,则称V服从自由度为n的卡方分布。记作V∼χn2。也可写作V∼χ2(v),其中v代替n为自由度
性质
- 卡 方 分 布 是 伽 马 分 布 的 一 个 特 例 , χ n 2 分 布 是 G a m m a ( n 2 , 1 2 ) 分 布 。 可 以 推 出 Z 1 2 = χ 1 2 ∼ G a m m a ( 1 2 , 1 2 ) \displaystyle 卡方分布是伽马分布的一个特例,\chi_n^2分布是Gamma(\frac{n}{2},\frac{1}{2})分布。可以推出Z_1^2=\chi_1^2\thicksim Gamma(\frac{1}{2},\frac{1}{2}) 卡方分布是伽马分布的一个特例,χn2分布是Gamma(2n,21)分布。可以推出Z12=χ12∼Gamma(21,21)
- 概 率 密 度 函 数 : f ( y ) = 1 2 n 2 Γ ( n 2 ) y n 2 − 1 e − y 2 y > 0 , ∫ 0 + ∞ 1 2 n 2 Γ ( n 2 ) y n 2 − 1 e − y 2 d y = 1 \displaystyle \textcolor{blue}{概率密度函数:} {\large f(y)=\frac{1}{2^{\frac{n}{2}}\Gamma(\frac{n}{2})}y^{\frac{n}{2}-1}e^{-\frac{y}{2}}}\quad y>0,\quad \int_0^{+\infty}{\large \frac{1}{2^{\frac{n}{2}}\Gamma(\frac{n}{2})}y^{\frac{n}{2}-1}e^{-\frac{y}{2}}}dy=1 概率密度函数:f(y)=22nΓ(2n)1y2n−1e−2yy>0,∫0+∞22nΓ(2n)1y2n−1e−2ydy=1
- 概 率 累 积 函 数 : F ( x ) = ∫ 0 x 1 2 n 2 Γ ( n 2 ) y n 2 − 1 e − y 2 d y , n 为 自 由 度 \textcolor{blue}{概率累积函数}:F(x)=\displaystyle \int_0^{x}{\large \frac{1}{2^{\frac{n}{2}}\Gamma(\frac{n}{2})}y^{\frac{n}{2}-1}e^{-\frac{y}{2}}}dy,n为自由度 概率累积函数:F(x)=∫0x22nΓ(2n)1y2n−1e−2ydy,n为自由度
- 按 照 伽 马 分 布 的 期 望 和 方 差 求 法 便 可 以 求 出 卡 方 分 布 的 期 望 和 方 差 , E ( V ) = n 2 / 1 2 = n , V a r ( V ) = n 2 / 1 4 = 2 n \displaystyle 按照伽马分布的期望和方差求法便可以求出卡方分布的期望和方差,E(V)=\frac{n}{2}/\frac{1}{2}=n,\\Var(V)=\frac{n}{2}/\frac{1}{4}=2n 按照伽马分布的期望和方差求法便可以求出卡方分布的期望和方差,E(V)=2n/21=n,Var(V)=2n/41=2n
- 由 于 卡 方 分 布 是 伽 马 分 布 的 一 个 特 例 , 所 以 两 个 互 相 独 立 的 卡 方 分 布 的 和 还 是 一 个 卡 方 分 布 , χ 2 ( v 1 ) + χ 2 ( v 2 ) = G a m m a ( v 1 2 , 1 2 ) + G a m m a ( v 2 2 , 1 2 ) = G a m m a ( v 1 + v 2 2 , 1 2 ) = χ 2 ( v 1 + v 2 ) , 即 一 个 自 由 度 为 v 1 + v 2 的 卡 方 分 布 \displaystyle由于卡方分布是伽马分布的一个特例,所以两个互相独立的卡方分布的和还是一个卡方分布,\\ \chi^2(v_1)+\chi^2(v_2)=Gamma(\frac{v_1}{2},\frac{1}{2})+Gamma(\frac{v_2}{2},\frac{1}{2})=Gamma(\frac{v_1+v_2}{2},\frac{1}{2})=\chi^2(v_1+v_2),\\即一个自由度为v_1+v_2的卡方分布 由于卡方分布是伽马分布的一个特例,所以两个互相独立的卡方分布的和还是一个卡方分布,χ2(v1)+χ2(v2)=Gamma(2v1,21)+Gamma(2v2,21)=Gamma(2v1+v2,21)=χ2(v1+v2),即一个自由度为v1+v2的卡方分布
- 根 据 中 心 极 限 定 理 , 随 着 自 由 度 v 的 增 大 , 分 布 趋 近 于 正 态 分 布 根据中心极限定理,随着自由度v的增大, 分布趋近于正态分布 根据中心极限定理,随着自由度v的增大,分布趋近于正态分布
-
由
于
G
a
m
m
a
(
a
,
λ
)
的
矩
母
函
数
为
(
λ
λ
−
t
)
a
,
对
于
一
个
卡
方
分
布
而
言
a
=
n
2
,
λ
=
1
2
,
所
以
卡
方
分
布
的
矩
母
函
数
为
M
V
(
t
)
=
(
1
1
−
2
t
)
n
/
2
,
t
<
1
2
\displaystyle 由于Gamma(a,\lambda)的矩母函数为(\frac{\lambda}{\lambda-t})^a,对于一个卡方分布而言a=\frac{n}{2},\lambda = \frac{1}{2},所以卡方分布的\\矩母函数为M_V(t)=(\frac{1}{1-2t})^{n/2},t<\frac{1}{2}
由于Gamma(a,λ)的矩母函数为(λ−tλ)a,对于一个卡方分布而言a=2n,λ=21,所以卡方分布的矩母函数为MV(t)=(1−2t1)n/2,t<21
卡 方 分 布 在 自 由 度 为 1 , 5 , 15 时 的 曲 线 图 卡方分布在自由度为1,5,15时的曲线图 卡方分布在自由度为1,5,15时的曲线图
2). 逆卡方分布
令 随 机 变 量 Y 服 从 自 由 度 为 n 的 卡 方 分 布 , 记 作 Y ∼ χ n 2 , 如 果 令 随 机 变 量 Z = 1 Y , 那 么 Z 所 服 从 的 分 布 便 是 逆 卡 方 分 布 , 记 作 Z ∼ χ n − 2 。 其 概 率 密 度 函 数 推 导 如 下 如 果 设 Y 的 概 率 密 度 函 数 为 f ( y ) , Z 的 概 率 密 度 函 数 为 g ( z ) , 其 中 z = 1 y , 则 g ( z ) = f ( 1 z ) ⋅ ∣ d y d z ∣ = f ( 1 z ) ⋅ 1 z 2 令随机变量Y服从自由度为n的卡方分布,记作Y\thicksim \chi_n^2,如果令随机变量\displaystyle Z=\frac{1}{Y},那么Z所服从的分布便是逆卡方\\分布,记作Z\thicksim \chi_n^{-2}。其概率密度函数推导如下\\ 如果设Y的概率密度函数为f(y),Z的概率密度函数为g(z),其中z=\frac{1}{y},则g(z)=f(\frac{1}{z})\cdot|\frac{dy}{dz}|=f(\frac{1}{z})\cdot\frac{1}{z^2} 令随机变量Y服从自由度为n的卡方分布,记作Y∼χn2,如果令随机变量Z=Y1,那么Z所服从的分布便是逆卡方分布,记作Z∼χn−2。其概率密度函数推导如下如果设Y的概率密度函数为f(y),Z的概率密度函数为g(z),其中z=y1,则g(z)=f(z1)⋅∣dzdy∣=f(z1)⋅z21
- 概 率 密 度 函 数 : f ( x ) = 1 2 n 2 Γ ( n 2 ) x − n 2 − 1 e − 1 2 x 0 < x < ∞ n 为 自 由 度 \textcolor{blue}{概率密度函数}: f(x)=\displaystyle {\large \frac{1}{2^{\frac{n}{2}}\Gamma(\frac{n}{2})}x^{-\frac{n}{2}-1}e^{-\frac{1}{2x}}}\quad0<x<\infty\quad n为自由度 概率密度函数:f(x)=22nΓ(2n)1x−2n−1e−2x10<x<∞n为自由度
- 概 率 累 积 函 数 : 若 一 自 由 度 为 n 的 卡 方 分 布 的 概 率 累 积 函 数 为 F ( x ) , 那 么 相 对 应 的 自 由 度 为 n 的 逆 卡 方 分 布 的 概 率 累 积 函 数 为 G ( x ) = 1 − F ( 1 x ) 0 < x < ∞ \textcolor{blue}{概率累积函数}:若一自由度为n的卡方分布的概率累积函数为F(x),那么相对应的自由度为n的逆卡方分布\\的概率累积函数为G(x)=1-F(\displaystyle \frac{1}{x})\quad 0<x<\infty 概率累积函数:若一自由度为n的卡方分布的概率累积函数为F(x),那么相对应的自由度为n的逆卡方分布的概率累积函数为G(x)=1−F(x1)0<x<∞
-
期
望
:
E
(
X
)
=
1
n
−
2
方
差
:
V
a
r
(
X
)
=
2
(
n
−
2
)
2
(
n
−
4
)
\displaystyle\textcolor{blue}{期望}:E(X)=\frac{1}{n-2}\quad \textcolor{blue}{方差}:Var(X)=\frac{2}{(n-2)^2(n-4)}
期望:E(X)=n−21方差:Var(X)=(n−2)2(n−4)2
逆 卡 方 分 布 在 自 由 度 为 30 , 35 , 40 时 的 曲 线 图 逆卡方分布在自由度为30,35,40时的曲线图 逆卡方分布在自由度为30,35,40时的曲线图
3). t分布
定义
令
T
=
Z
V
/
n
其
中
,
Z
∼
N
(
0
,
1
)
,
V
∼
χ
n
2
,
V
和
Z
独
立
。
那
么
T
服
从
自
由
度
为
n
的
t
分
布
,
记
作
T
∼
t
n
其
密
度
函
数
为
f
T
(
t
)
=
Γ
(
(
n
+
1
)
/
2
)
n
π
Γ
(
n
/
2
)
(
1
+
t
2
/
n
)
−
(
n
+
1
)
/
2
\displaystyle 令T=\frac{Z}{\sqrt{V/n}}其中,Z\thicksim N(0,1),V\thicksim \chi_n^2,V和Z独立。那么T服从自由度为n的t分布,记作T\thicksim t_n\\ 其密度函数为f_T(t)=\frac{\Gamma((n+1)/2)}{\sqrt{n\pi}\Gamma(n/2)}(1+t^2/n)^{-(n+1)/2}
令T=V/nZ其中,Z∼N(0,1),V∼χn2,V和Z独立。那么T服从自由度为n的t分布,记作T∼tn其密度函数为fT(t)=nπΓ(n/2)Γ((n+1)/2)(1+t2/n)−(n+1)/2
性质
- E ( T ) = 0 , n > 1 时 , V a r ( T ) = n n − 2 , n > 2 时 \displaystyle E(T)=0,n>1时,Var(T)=\frac{n}{n-2},n>2时 E(T)=0,n>1时,Var(T)=n−2n,n>2时
- 对 称 性 , 如 果 T ∼ t n , 那 么 − T ∼ t n \displaystyle \textcolor{blue}{对称性},如果T\thicksim t_n,那么-T \thicksim t_n 对称性,如果T∼tn,那么−T∼tn
- t 1 为 柯 西 分 布 , 如 果 n = 1 , 那 么 T = Z ∣ Z 1 ∣ , 由 于 V 与 Z 互 相 独 立 且 T 具 有 对 称 性 , 所 以 此 时 t 1 为 柯 西 分 布 \displaystyle \textcolor{blue}{t_1为柯西分布},如果n=1,那么T=\frac{Z}{|Z_1|},由于V与Z互相独立且T具有对称性,所以此时t_1为柯西分布 t1为柯西分布,如果n=1,那么T=∣Z1∣Z,由于V与Z互相独立且T具有对称性,所以此时t1为柯西分布
-
收
敛
到
正
态
分
布
,
当
n
→
∞
时
,
由
弱
大
数
定
理
V
n
n
=
Z
1
2
+
Z
2
2
+
⋯
Z
n
2
n
→
E
(
Z
1
2
)
=
1
的
概
率
为
1
,
所
以
T
(
n
→
∞
)
→
Z
1
=
Z
∼
N
(
0
,
1
)
\displaystyle\textcolor{blue}{收敛到正态分布},当n\to\infty时,由弱大数定理\frac{V_n}{n}=\frac{Z_1^2+Z_2^2+\cdots Z_n^2}{n}\to E(Z_1^2)=1的概率为1,所以\\T(n\to \infty)\to \frac{Z}{1}=Z\thicksim N(0,1)
收敛到正态分布,当n→∞时,由弱大数定理nVn=nZ12+Z22+⋯Zn2→E(Z12)=1的概率为1,所以T(n→∞)→1Z=Z∼N(0,1)
t 分 布 在 自 由 度 为 1 , 3 , 6 时 的 曲 线 图 t分布在自由度为\textcolor{red}{1},\textcolor{green}{3},\textcolor{blue}{6}时的曲线图 t分布在自由度为1,3,6时的曲线图
补充
t 分 布 可 以 由 一 个 正 态 分 布 与 一 个 伽 马 分 布 的 卷 积 得 来 , 其 中 正 态 分 布 的 精 度 ( 方 差 的 倒 数 ) 为 一 个 服 从 后 面 伽 马 分 布 的 随 机 变 量 t分布可以由一个正态分布与一个伽马分布的卷积得来,其中正态分布的精度(方差的倒数)为一个服从后面 伽马\\分布的随机变量 t分布可以由一个正态分布与一个伽马分布的卷积得来,其中正态分布的精度(方差的倒数)为一个服从后面伽马分布的随机变量
S t ( x ∣ μ , a , b ) = ∫ 0 ∞ N ( x ∣ μ , τ − 1 ) G a m m a ( τ ∣ a , b ) d τ St(x|\mu,a,b)=\int_0^\infty N(x|\mu,\tau^{-1})Gamma(\tau|a,b)d\tau St(x∣μ,a,b)=∫0∞N(x∣μ,τ−1)Gamma(τ∣a,b)dτ
根 据 维 度 一 元 分 布 , 若 令 t = 2 a , λ = a b , η = b a τ , 则 换 元 后 分 布 形 式 可 写 为 根据维度\\ \textcolor{blue}{一元分布},若令t=2a,\lambda=\frac{a}{b},\eta=\frac{b}{a}\tau,则换元后分布形式可写为 根据维度一元分布,若令t=2a,λ=ba,η=abτ,则换元后分布形式可写为
S t ( x ∣ μ , λ , t ) = ∫ 0 ∞ N ( x ∣ μ , ( η λ ) − 1 ) G a m m a ( η ∣ t 2 , t 2 ) d η = Γ ( t + 1 2 ) Γ ( t 2 ) ( λ π t ) 1 2 [ 1 + λ ( x − μ ) 2 t ] − t + 1 2 St(x|\mu,\lambda,t)=\int_0^\infty N(x|\mu,(\eta\lambda)^{-1})Gamma(\eta|\frac{t}{2},\frac{t}{2})d\eta=\frac{\Gamma(\frac{t+1}{2})}{\Gamma(\frac{t}{2})}(\frac{\lambda}{\pi t})^{\frac{1}{2}}[1+\frac{\lambda(x-\mu)^2}{t}]^{-\frac{t+1}{2}} St(x∣μ,λ,t)=∫0∞N(x∣μ,(ηλ)−1)Gamma(η∣2t,2t)dη=Γ(2t)Γ(2t+1)(πtλ)21[1+tλ(x−μ)2]−2t+1
其 中 λ 是 t 分 布 的 精 度 , μ 是 均 值 向 量 , t 是 自 由 度 , 由 于 t → ∞ 时 t 分 布 会 逼 近 于 一 个 标 准 正 态 分 布 N ( 0 , 1 ) , 所 以 μ = 0 , λ = 1 σ 2 = 1 , 于 是 对 于 一 维 t 分 布 最 终 形 态 便 会 是 其中\lambda是t分布的精度,\mu是均值向量,t是自由度,由于t\to \infty时t分布会逼近于一个标准正态分布N(0,1),\\所以\mu=0,\lambda=\frac{1}{\sigma^2}=1,于是对于一维t分布最终形态便会是 其中λ是t分布的精度,μ是均值向量,t是自由度,由于t→∞时t分布会逼近于一个标准正态分布N(0,1),所以μ=0,λ=σ21=1,于是对于一维t分布最终形态便会是
S t ( x ∣ μ , λ , t ) = Γ ( t + 1 2 ) π t ⋅ Γ ( t 2 ) [ 1 + x 2 t ] − t + 1 2 St(x|\mu,\lambda,t)=\frac{\Gamma(\frac{t+1}{2})}{\sqrt{\pi t}\cdot\Gamma(\frac{t}{2})}[1+\frac{x^2}{t}]^{-\frac{t+1}{2}} St(x∣μ,λ,t)=πt⋅Γ(2t)Γ(2t+1)[1+tx2]−2t+1
多 元 分 布 , 与 一 元 情 况 大 致 相 同 , 不 过 均 值 μ 要 变 为 均 值 向 量 μ , 精 度 λ 要 变 为 精 度 矩 阵 Λ , ∣ Λ ∣ 为 精 度 矩 阵 的 行 列 式 , 同 时 引 入 平 方 马 氏 距 离 Δ 2 = ( x − μ ) T Λ ( x − μ ) , 最 后 D 为 维 度 , 于 是 可 得 \textcolor{blue}{多元分布},与一元情况大致相同,不过均值\mu要变为均值向量\bm{\mu},精度\lambda要变为精度矩阵\Lambda,|\Lambda|为精度矩阵的\\行列式,同时引入平方马氏距离\Delta^2=(\bm{x}-\bm{\mu})^T\Lambda(\bm{x}-\bm{\mu}),最后D为维度,于是可得 多元分布,与一元情况大致相同,不过均值μ要变为均值向量μ,精度λ要变为精度矩阵Λ,∣Λ∣为精度矩阵的行列式,同时引入平方马氏距离Δ2=(x−μ)TΛ(x−μ),最后D为维度,于是可得
S t ( x ∣ μ , Λ , t ) = ∫ 0 ∞ N ( x ∣ μ , ( η Λ ) − 1 ) G a m m a ( η ∣ t 2 , t 2 ) d η = Γ ( t + D 2 ) Γ ( t 2 ) ∣ Λ ∣ 1 2 ( π t ) D 2 [ 1 + Δ 2 t ] − t + D 2 St(\bm{x}|\bm{\mu},\Lambda,t)=\int_0^\infty N(\bm{x}|\bm{\mu},(\eta\Lambda)^{-1})Gamma(\eta|\frac{t}{2},\frac{t}{2})d\eta=\frac{\Gamma(\frac{t+D}{2})}{\Gamma(\frac{t}{2})}\frac{|\Lambda|^\frac{1}{2}}{(\pi t)^{\frac{D}{2}}}[1+\frac{\Delta^2}{t}]^{-\frac{t+D}{2}} St(x∣μ,Λ,t)=∫0∞N(x∣μ,(ηΛ)−1)Gamma(η∣2t,2t)dη=Γ(2t)Γ(2t+D)(πt)2D∣Λ∣21[1+tΔ2]−2t+D
性 质 , E ( x ) = μ , 如 果 t > 1 , c o v ( x ) = t t − 2 Λ − 1 如 果 t > 2 \textcolor{blue}{性质},\\ E(\bm{x})=\bm{\mu}, 如果t > 1,\\cov(\bm{x})=\displaystyle \frac{t}{t-2}\Lambda^{-1} 如果t > 2 性质,E(x)=μ,如果t>1,cov(x)=t−2tΛ−1如果t>2
4). 样本方差的分布
根 据 中 心 极 限 定 理 可 知 样 本 均 值 X − 是 一 个 随 机 变 量 并 且 其 分 布 近 似 于 正 态 分 布 , 那 么 样 本 方 差 的 情 况 如 何 ? 对 于 独 立 同 分 布 的 X 1 , ⋯ X n ∼ N ( μ , σ 2 ) , 样 本 方 差 S n 2 = 1 n − 1 ∑ j = 1 n ( X j − X − n ) 2 也 是 随 机 变 量 , 并 且 ( n − 1 ) S n 2 σ 2 ∼ χ n − 1 2 \begin{aligned} &根据中心极限定理可知样本均值\overset{-}{X}是一个随机变量并且其分布近似于正态分布,那么样本方差的情况如何?\\ &对于独立同分布的X_1,\cdots X_n\thicksim N(\mu,\sigma^2),样本方差S_n^2=\frac{1}{n-1}\sum_{j=1}^n(X_j-\overset{-}{X}_n)^2也是随机变量,并且\\ &\frac{(n-1)S_n^2}{\sigma^2}\thicksim \chi_{n-1}^2 \end{aligned} 根据中心极限定理可知样本均值X−是一个随机变量并且其分布近似于正态分布,那么样本方差的情况如何?对于独立同分布的X1,⋯Xn∼N(μ,σ2),样本方差Sn2=n−11j=1∑n(Xj−X−n)2也是随机变量,并且σ2(n−1)Sn2∼χn−12