【概率论】6-2:大数定理(The Law of Large Numbers)

原文地址1:https://www.face2ai.com/Math-Probability-6-2-The-Law-of-Large-Numbers转载请标明出处

Abstract: 本文介绍马尔科夫不等式,切比雪夫不等式,样本均值,和大数定理的知识内容
Keywords: Markov Inequality,Chebyshev Inequality,Sample Mean,The Law of Large Numbers

大数定理

最早做图像处理的时候建了一个QQ群,后来在里面认识了图像处理第一份工作的老板,后来离开了群,因为里面很多人基本都是来凑热闹的,所以质量堪忧,今天我又建了一个本博客的微信群,希望群内的同学们,能找到自己喜欢的方向,深入到自己热爱的领域,其实如果我的这些文字能帮助三五十个人,说实话,我自己感觉比那些小作坊身价过亿的小老板对社会的贡献更大一些。所以继续努力,戒骄戒躁。
想加入我们的同学,可以看目录页里面有进群的方法。

若干个拥有相同分布的独立随机变量的均值,被称为样本均值(“样本期望”等表述同一概念:Sample Mean),这些被选取出来的随机变量被称为样本。样本均值对于样本的信息描述,类似于一个分布的期望对这个分布的描述。注意这句话有两个信息:

  1. 我们前面介绍的均值,期望都是针对分布的。
  2. 样本的均值不同于分布的均值,但是有很多相似之处。

本节我们就会介绍一些结果来表明,“样本均值”和“组成随机样本的单个随机变量”之间的关系。

马尔科夫不等式和切比雪夫不等式 The Markov and Chebyshev Inequalities

在学习均值的时候讲到过有关重心类似的概念,也就是说当我们改变分布,让小概率对应一个大的值的时候,比如离散情况下随机变量值 { 1 , 100 , 0.1 } \{1,100,0.1\} {1,100,0.1} 对应于概率 { 0.1 , 0.01 , 0.89 } \{0.1,0.01,0.89\} {0.1,0.01,0.89} 这时的期望是 1 × 0.1 + 100 × 0.01 + 0.1 × 0.89 = 1.189 1\times 0.1+100\times 0.01 + 0.1\times 0.89=1.189 1×0.1+100×0.01+0.1×0.89=1.189 也可以说重心在1.189这个位置,如果我们调整下,让大的随机变量值对应到大概率 { 1 , 0.1 , 100 } \{1,0.1,100\} {1,0.1,100} 对应于概率 { 0.1 , 0.01 , 0.89 } \{0.1,0.01,0.89\} {0.1,0.01,0.89} 这时的期望是 1 × 0.1 + 0.1 × 0.01 + 100 × 0.89 = 89.101 1\times 0.1+0.1\times 0.01 + 100\times 0.89=89.101 1×0.1+0.1×0.01+100×0.89=89.101 显然这个重心发生了明显的偏移,但是我们有个新想法,如果我们有很多个离散随机变量值,或者是连续分布的随机变量,我们在固定分布均值的情况下,有多少随机变量值可以调整位置呢?

马尔科夫不等式 Markov Inequality

Theorem Markov Inequality.Suppose that X X X is a random variable such that P r ( X ≥ 0 ) = 1 Pr(X\geq 0)=1 Pr(X0)=1 .Then for every real number t > 0 t>0 t>0 ,
P r ( X ≥ t ) ≤ E ( X ) t Pr(X\geq t)\leq \frac{E(X)}{t} Pr(Xt)tE(X)

证明思路的话我们就用一个离散分布来证明上面这个不等式的正确性然后延伸到连续情况。
证明:

  1. 假设 X X X 有一个离散分布,其p.f.是 f f f
  2. 那么 X X X 的期望是:
    E ( X ) = ∑ x x f ( x ) = ∑ x < t x f ( x ) + ∑ x ≥ t x f ( x ) E(X)=\sum_{x}xf(x)=\sum_{x<t}xf(x)+\sum_{x\geq t}xf(x) E(X)=xxf(x)=x<txf(x)+xtxf(x)
  3. 因为我们在条件中规定 X ≥ 0 X\geq 0 X0 那么,上面的求和部分都是大于等于0的。
  4. 所以我们有:
    E ( X ) = ∑ x ≥ t x f ( x ) ≥ ∑ x ≥ t t f ( x ) = t P r ( X ≥ t ) E(X)=\sum_{x\geq t}xf(x)\geq \sum_{x\geq t}tf(x)=tPr(X\geq t) E(X)=xtxf(x)xttf(x)=tPr(Xt)
  5. 根据 t > 0 t>0 t>0 得出我们要的结论:
    E ( X ) ≥ t P r ( X ≥ t ) ⇒ P r ( X ≥ t ) ≤ E ( X ) t E(X)\geq t Pr(X\geq t)\Rightarrow Pr(X\geq t)\leq\frac{E(X)}{t} E(X)tPr(Xt)Pr(Xt)tE(X)
  6. 证毕

也就是说,Markov不等式回答了我们上面的问题,有多少随机变量值可以调整概率?对于某个正数 t t t 调整前后必须满足大于 t t t 的随机变量的全部概率要小于等于随机变量的期望除以 t t t 这就是马尔科夫不等式给出我们的表面含义。
观察马尔科夫不等式,我们可以看出一个有趣的现象,如果 t t t 是小于期望 E ( X ) E(X) E(X) 的话,这个不等式就没啥意义了,因为概率必然小于1,所以多半情况下我们研究的是 t > E ( X ) t > E(X) t>E(X) 的情况。
一个有趣的现象,如果一个随机变量的均值是1,那么其取到大于等于100的概率是 P r ( X ≥ 100 ) ≤ 1 100 = 0.01 Pr(X\geq 100)\leq \frac{1}{100}=0.01 Pr(X100)1001=0.01
马尔科夫不等式得到概率和期望之间的关系,接下来我们想要看到的肯定是方差和概率之间的关系。

切比雪夫不等式 Chebyshev Inequality

方差是反应随机变量分布的离散情况(spread out)的描述。不等式表明,随机变量值与其均值之间的距离的概率受到其方差的制约,注意分析这句话的主语和定语。注意,今日主角大数定理的证明需要用到切比雪夫不等式。

Theorem Chebyshev Inequality.Let X X X be a random variable for which V a r ( X ) Var(X) Var(X) exists.Then for every number t > 0 t>0 t>0 ,
P r ( ∣ X − E ( X ) ∣ ≥ t ) ≤ V a r ( X ) t 2 Pr(|X-E(X)|\geq t)\leq \frac{Var(X)}{t^2} Pr(XE(X)t)t2Var(X)

看形势跟马尔科夫不等式很相似,所以证明也会用到马尔科夫不等式。
证明:

  1. Y = [ X − E ( X ) ] 2 Y=[X-E(X)]^2 Y=[XE(X)]2
  2. 因为 Y Y Y 是一个数的平方,那么我们有 P r ( Y ≥ 0 ) = 1 Pr(Y\geq 0)=1 Pr(Y0)=1
  3. 根据方差的定义,有 E [ Y ] = V a r ( X ) E[Y]=Var(X) E[Y]=Var(X)
  4. 根据马尔科夫不等式,我们有 P r ( Y ≥ m ) ≤ E ( Y ) m Pr(Y\geq m)\leq \frac{E(Y)}{m} Pr(Ym)mE(Y) 其中 m > 0 m>0 m>0
  5. 因为想证明 ∣ X − E ( X ) ∣ ≥ t |X-E(X)|\geq t XE(X)t 形式下的关系,所以我们令 t 2 = m t^2=m t2=m
  6. 所以 P r ( Y ≥ m ) = P r ( ∣ X − E ( X ) ∣ ≥ t ) ≤ E ( Y ) m = V a r ( X 2 ) t 2 Pr(Y\geq m)=Pr(|X-E(X)|\geq t)\leq \frac{E(Y)}{m}=\frac{Var(X^2)}{t^2} Pr(Ym)=Pr(XE(X)t)mE(Y)=t2Var(X2)
  7. 所以得到最后结论 P r ( ∣ X − E ( X ) ∣ ≥ t ) ≤ V a r ( X ) t 2 Pr(|X-E(X)|\geq t)\leq \frac{Var(X)}{t^2} Pr(XE(X)t)t2Var(X)
  8. 证毕。

根据马尔科夫不等式给出的一些结论,在切比雪夫不等式中同样也是有响应的推论,比如我们令 V a r ( X ) = σ 2 Var(X)=\sigma^2 Var(X)=σ2 以及 t = 3 σ t=3\sigma t=3σ 那么我们的切比雪夫不等式就有:
P r ( ∣ X − E ( X ) ∣ ≥ 3 σ ) ≤ σ 2 ( 3 σ ) 2 = 1 9 Pr(|X-E(X)|\geq 3\sigma)\leq \frac{\sigma^2}{(3 \sigma)^2}=\frac{1}{9} Pr(XE(X)3σ)(3σ)2σ2=91

这个结论很有用,因为他刻画了一个分布要遵守的规则,就是超过 3 σ 3\sigma 3σ 的部分概率小于 1 9 \frac{1}{9} 91

样本均值的性质 Properties of the Sample Mean

样本均值的性质,首先我们还是来看样本均值的定义,样本均值还是一个随机变量,他是其他随机变量的线性组合,而组成他的这些变量必须是独立同分布的。
X n ˉ = X 1 + ⋯ + X n \bar{X_n}=X_1+\dots+X_n Xnˉ=X1++Xn

注意,这里都是大写字母表示的是随机变量,而不是某个值,所以这个均值也是随机变量,接下来我们就要研究这个随机变量的性质了。

Theorem Mean and Variance of the Sample Mean.Let X 1 , … , X n X_1,\dots,X_n X1,,Xn be a random sample from a distribution with mean μ \mu μ and variance σ 2 \sigma^2 σ2 .Let X n ˉ \bar{X_n} Xnˉ be the sample mean.Then E ( X n ˉ ) = μ E(\bar{X_n})=\mu E(Xnˉ)=μ and V a r ( X n ˉ ) = σ 2 n Var(\bar{X_n})=\frac{\sigma^2}{n} Var(Xnˉ)=nσ2

证明虽然比较简单,我们还是证明一下比较好:
证明:

  1. 根据4.2 中的定理
    E ( X n ˉ ) = 1 n ∑ i = 1 n E ( X i ) = 1 n n μ = μ E(\bar{X_n})=\frac{1}{n}\sum^{n}_{i=1}E(X_i)=\frac{1}{n}n\mu=\mu E(Xnˉ)=n1i=1nE(Xi)=n1nμ=μ
  2. 根据4.3 中方差的定理
    V a r ( X n ˉ ) = 1 n 2 V a r ( ∑ i = 1 n X i ) = 1 n 2 ∑ i = 1 n V a r ( X i ) = 1 n 2 ⋅ n σ 2 = σ 2 n \begin{aligned} Var(\bar{X_n})&=\frac{1}{n^2}Var(\sum^n_{i=1}X_i)\\ &=\frac{1}{n^2}\sum^{n}_{i=1}Var(X_i)\\ &=\frac{1}{n^2}\cdot n\sigma^2\\ &=\frac{\sigma^2}{n} \end{aligned} Var(Xnˉ)=n21Var(i=1nXi)=n21i=1nVar(Xi)=n21nσ2=nσ2

换句话说,就是样本均值的期望会接近原始分布的期望,方差会变小,变小的比例是取样的数量,这个可以理解,因为你取的越少,离散程度自然越小。可以利用切比雪夫不等式来使得定理更加精确 因为 E ( X n ˉ ) = μ , V a r ( X n ˉ ) = σ 2 n E(\bar{X_n})=\mu,Var(\bar{X_n})=\frac{\sigma^2}{n} E(Xnˉ)=μ,Var(Xnˉ)=nσ2
P r ( ∣ X ˉ − μ ∣ ≥ t ) ≤ σ 2 n t 2 Pr(|\bar{X}-\mu|\geq t)\leq \frac{\sigma^2}{nt^2} Pr(Xˉμt)nt2σ2


举个🌰 :
假设从一个分布中选取一个随机样本,均值 μ \mu μ 未知,但是知道标准偏移 σ \sigma σ 小于等于两个单位(2 units),那么我们需要至少多大的样本才能使得 ∣ X ˉ − μ ∣ |\bar{X}-\mu| Xˉμ 小于1个单位的概率大于等于 0.99 。

注意,这里的2个单位,1个单位的表述方式是因为 方差没有单位,所以没办法说出量词
也就是说 σ ≤ 2 ⇒ σ 2 ≤ 4 \sigma\leq 2\Rightarrow \sigma^2\leq 4 σ2σ24 根据切比雪夫不等式:
P r ( ∣ X n ˉ − μ ∣ ≥ 1 ) ≤ σ 2 n ≤ f r a c 4 n Pr(|\bar{X_n}-\mu|\geq 1)\leq \frac{\sigma^2}{n}\leq frac{4}{n} Pr(Xnˉμ1)nσ2frac4n
为了让 P r ( ∣ X ˉ − μ ∣ < 1 ) ≥ 0.99 Pr(|\bar{X}-\mu|<1)\geq 0.99 Pr(Xˉμ<1)0.99 必须使得 σ 2 n ≤ 4 n ≤ 0.01 \frac{\sigma^2}{n}\leq \frac{4}{n}\leq 0.01 nσ2n40.01 这样就要求 n n n 至少是 400 这个过程有问题的地方就是上面0.01和 4 n \frac{4}{n} n4 的关系这里,需要理清思路,切比雪夫不等式给出的不是最好的界限,因为其可能比最好的界限更严格,比如可能100个样本能解决,但是用切比雪夫算出来需要至少200个。


大数定理 The Law of Large Numbers

大数定理,大名鼎鼎,但是之前一直不知道他是干什么的,今天我们就来一起探索大数定理要表述什么,以及其背后的真相。
上面的例子用切比雪夫不等式来确定取样规模的大小,但是有些情况下确实有些虚报,比如其实只需要1000个样本,但是切比雪夫不等式得出的是10000个,这种情况经常发生,但是切比雪夫不等式绝对是个有用的工具,帮助我们证明下面的定理——“大数定理” ,大数不是指很大的数字,而是指很多的数字。
首先说说序列的收敛,这个在数学分析系列中会有严格的证明和解释,这里随机序列的收敛可以简单的理解为一个序列中的元素 Z n Z_n Zn n n n 逐渐增加, Z n Z_n Zn 逐渐接近某个实数 b b b 的概率逐渐增大 , 极限情况下 l i m n → ∞ Z n = b lim_{n\to \infty}Z_n=b limnZn=b 发生的概率为1.

Definition Convergence in Probability.A sequence Z 1 , Z 2 , … Z_1,Z_2,\dots Z1,Z2, of random variables converges to b b b in probability if for every number ε > 0 \varepsilon >0 ε>0 ,
l i m n → ∞ P r ( ∣ Z n − b ∣ < ε ) = 1 lim_{n\to\infty}Pr(|Z_n-b|<\varepsilon)=1 limnPr(Znb<ε)=1
This property is denoted by
Z n → p b Z_n\xrightarrow{p} b Znp b
and sometimes stated simply as Z n Z_n Zn converges to b b b in probability.

上面是极限的一种典型的定义方法,无论 ε \varepsilon ε 多么小,都存在 n n n 使得 ∣ Z n − b ∣ < ε |Z_n-b|<\varepsilon Znb<ε 成立(概率的方法就是概率趋近于 1)。
换句话说,无论在 b b b 附近多么小的区间,都存在当 n → ∞ n\to \infty n Z n Z_n Zn 在此区间的概率趋近于1。

然后我们结合这个定义以及前面关于样本均值的定义,请出赫赫有名的“大数定理”

Theorem Law of Large Numbers.Suppose that X 1 , … , X n X_1,\dots,X_n X1,,Xn from a random sample from a distribution for which the mean is μ \mu μ and for which the variance is finite.Let X ˉ n \bar{X}_n Xˉn denote the sample mean.Then
X ˉ n → p μ (6.2.5) \bar{X}_n\xrightarrow{p}\mu\tag{6.2.5} Xˉnp μ(6.2.5)

证明:

  1. 对于每一个随机变量 X i X_i Xi ,我们设其方差为 σ 2 \sigma^2 σ2
  2. 根据切比雪夫不等式(变形)对于每一个 ε > 0 \varepsilon>0 ε>0 有:
    P r ( ∣ X ˉ n − μ ∣ < ε ) ≥ 1 − σ 2 ε 2 Pr(|\bar{X}_n-\mu|<\varepsilon)\geq 1-\frac{\sigma^2}{\varepsilon^2} Pr(Xˉnμ<ε)1ε2σ2
  3. 再根据样本的方差的性质 V a r ( X ˉ n ) = σ 2 n Var(\bar{X}_n)=\frac{\sigma^2}{n} Var(Xˉn)=nσ2
  4. 那么因此有:
    P r ( ∣ X ˉ n − μ ∣ < ε ) ≥ 1 − σ 2 n ε 2 Pr(|\bar{X}_n-\mu|<\varepsilon)\geq 1-\frac{\sigma^2}{n\varepsilon^2} Pr(Xˉnμ<ε)1nε2σ2
  5. 于是得到大数定理的结论:
    l i m n → ∞ P r ( ∣ X ˉ n − μ ∣ < ε ) = 1 X ˉ n → p μ lim_{n\to \infty}Pr(|\bar{X}_n-\mu|<\varepsilon)=1\\ \bar{X}_n\xrightarrow{p}\mu limnPr(Xˉnμ<ε)=1Xˉnp μ
  6. 证毕

上述证明是在均值有限,方差有限的分布上进行证明的,当均值有限,方差无限的时候,需要用到更高深的方法进行证明。
大数定理有两种用法:

  1. 当样本足够多的时候,样本均值和分布均值足够接近的概率非常大
  2. 当样本足够多的时候,可以用样本均值来近似分布均值。

2中的用法将在下一篇继续讨论,进而引出中心极限定理,并且能够提出描述这两个均值之间的差。

Theorem Continuous Functions of Random Variables.If Z n → p b Z_n\xrightarrow{p}b Znp b ,and if g ( z ) g(z) g(z) is a function that is continuous at z = b z=b z=b ,then g ( Z n ) → p g ( b ) g(Z_n)\xrightarrow{p}g(b) g(Zn)p g(b)

这个定理可以被扩展成多维情况:

Corollary Continuous Functions of Random Variables.If Z n ⃗ → p b ⃗ \vec{Z_n}\xrightarrow{p}\vec{b} Zn p b ,and if g ( v e c z ) g(vec{z}) g(vecz) is a function that is continuous at z ⃗ = b ⃗ \vec{z}=\vec{b} z =b ,then g ( Z n ⃗ ) → p g ( b ⃗ ) g(\vec{Z_n})\xrightarrow{p}g(\vec{b}) g(Zn )p g(b )

这个定理的证明用到了随机变量的函数,和极限的函数两个知识点,这里不进行证明,具体可以参考3.8

Theorem Histogram.Let X 1 , X 2 , … X_1,X_2,\dots X1,X2, be a sequence of i.i.d. random variables.Let c 1 < c 2 c_1 < c_2 c1<c2 be two constants.Define Y i = 1 Y_i=1 Yi=1 if c 1 ≤ X i < c 2 c_1\leq X_i<c_2 c1Xi<c2 and Y i = 0 Y_i=0 Yi=0 if not .Then Y ˉ n = 1 n ∑ i = 1 n Y i \bar{Y}_n=\frac{1}{n}\sum^{n}_{i=1}Y_i Yˉn=n1i=1nYi is the proportion of X 1 , … , X n X_1,\dots,X_n X1,,Xn that lie in the interval [ c 1 , c 2 ) [c_1,c_2) [c1,c2) ,and Y ˉ n → p P r ( c 1 ≤ X 1 < c 2 ) \bar{Y}_n \xrightarrow{p}Pr(c_1\leq X_1<c_2) Yˉnp Pr(c1X1<c2)

在证明这个定理之前解释一下,这个定理是关于直方图的,对于一个随机样本(内包含多个i.i.d.的随机变量)其中落在某个固定区间上的个数与全部样本的个数的比例,概率趋近于原始分布在此区间的概率。这个定理存在的根本意义是证明了直方图可以反映原始分布形态!

证明:

  1. 对于独立同分布的随机变量 Y 1 , Y 2 , … Y_1,Y_2,\dots Y1,Y2, 是独立同分布的伯努利随机变量
  2. 根据伯努利分布的定义,其参数 p = P r ( c 1 ≤ X 1 < c 2 ) p=Pr(c_1\leq X_1< c_2) p=Pr(c1X1<c2)
  3. 根据大数定理, Y ˉ n → p p \bar{Y}_n\xrightarrow{p}p Yˉnp p

这个定理直观的应用就是,一个随机样本中的随机变量值,落在范围 [ c 1 , c 2 ) [c_1,c_2) [c1,c2) 内的比例概率趋近于这个分布在此区间的概率,这也就证明了,我们用落在某个范围内的随机变量的个数来刻画产生这些随机变量的分布在此区间的概率是受到大数定理的支持的。
上面这句话不好理解,可以多读几遍,或者定理的语言更直观!因为连续分布的p.d.f下的面积是对应区间的概率,所以我们经常用直方图的面积来表示这个区间的概率就是这么来的(有黎曼积分的思想在里面),作为进一步的近似,样本越多,直方图越接近原始分布。
以上全部定理,在条件分布下同样适用!

总结

本文介绍了大数定理,为了介绍大数定理,还介绍了马尔科夫不等式,切比雪夫不等式,样本均值方差,最后才引出大数定理,整个过程非常流畅,学完定理后需要多做练习。
明天继续中心极限定理。

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值