几种大数定律介绍

1. 切比雪夫不等式

  • 定理

    设随机变量 X X X具有数学期望 E ( X ) = μ E(X)=\mu E(X)=μ,方差 D ( X ) = σ 2 D(X)=\sigma^2 D(X)=σ2,则对于任意正数 ϵ \epsilon ϵ,不等式 P { ∣ X − μ ∣ ≥ ϵ } ≤ σ 2 ϵ 2 P\{|X-\mu|\geq\epsilon\}\leq \frac{\sigma^2}{\epsilon^2} P{Xμϵ}ϵ2σ2

    成立,这一不等式称为切比雪夫(Chebyshev)不等式 . 该不等式也可写作 P { ∣ X − μ ∣ < ϵ } ≥ 1 − σ 2 ϵ 2 P\{|X-\mu|<\epsilon\}\geq 1-\frac{\sigma^2}{\epsilon^2} P{Xμ<ϵ}1ϵ2σ2

    证明

    对于离散型有

    P { ∣ X − μ ∣ ≥ ϵ } = ∑ k = μ − ϵ k = μ + ϵ p k ≤ ∑ k = μ − ϵ k = μ + ϵ p k ( k − μ ) 2 ϵ 2 ( ∵ ∣ X − μ ∣ ≥ ϵ ∴ ( k − μ ) 2 ϵ 2 ≥ 1 ) ≤ 1 ϵ 2 ∑ k = 0 + ∞ p k ( k − μ ) 2 ( 级 数 p i ( k − μ ) 2 ≥ 0 , 因 此 扩 大 其 累 加 范 围 , 其 结 果 必 然 不 减 ) = D ( X ) ϵ 2 = σ 2 ϵ 2 \begin{aligned} P\{|X-\mu|\geq\epsilon\} &= \sum\limits_{k=\mu-\epsilon}^{k=\mu+\epsilon}p_k \leq \sum\limits_{k=\mu-\epsilon}^{k=\mu+\epsilon}p_k\frac{(k-\mu)^2}{\epsilon^2} \quad (\because |X-\mu|\geq\epsilon \quad \therefore\frac{(k-\mu)^2}{\epsilon^2} \geq 1) \\ &\leq \frac{1}{\epsilon^2}\sum\limits_{k=0}^{+\infty}p_k(k-\mu)^2 \quad (级数p_i(k-\mu)^2\geq0 ,因此扩大其累加范围,其结果必然不减)\\&=\frac{D(X)}{\epsilon^2} = \frac{\sigma^2}{\epsilon^2} \end{aligned} P{Xμϵ}=k=μϵk=μ+ϵpkk=μϵk=μ+ϵpkϵ2(kμ)2(Xμϵϵ2(kμ)21)ϵ21k=0+pk(kμ)2(pi(kμ)20)=ϵ2D(X)=ϵ2σ2
    对于连续型有

    P { ∣ X − μ ∣ ≥ ϵ } = ∫ ∣ x − μ ∣ ≥ ϵ f ( x ) ≤ ∫ ∣ x − μ ∣ ≥ ϵ f ( x ) ( x − μ ) 2 ϵ 2 ( ∵ ∣ x − μ ∣ ≥ ϵ ∴ ( x − μ ) 2 ϵ 2 ≥ 1 ) ≤ 1 ϵ 2 ∫ − ∞ + ∞ f ( x ) ( x − μ ) 2 ( 被 积 函 数 f ( x ) ( x − μ ) 2 ≥ 0 , 因 此 扩 大 其 积 分 范 围 , 其 结 果 必 然 不 减 ) = D ( X ) ϵ 2 = σ 2 ϵ 2 \begin{aligned} P\{|X-\mu|\geq\epsilon\} &= \int\limits_{|x-\mu|\geq\epsilon}f(x) \leq \int\limits_{|x-\mu|\geq\epsilon}f(x)\frac{(x-\mu)^2}{\epsilon^2} \quad (\because |x-\mu|\geq\epsilon \quad \therefore\frac{(x-\mu)^2}{\epsilon^2} \geq 1) \\ &\leq \frac{1}{\epsilon^2}\int\nolimits_{-\infty}^{+\infty}f(x)(x-\mu)^2 \quad (被积函数f(x)(x-\mu)^2\geq0 ,因此扩大其积分范围,其结果必然不减)\\&=\frac{D(X)}{\epsilon^2} = \frac{\sigma^2}{\epsilon^2} \end{aligned} P{Xμϵ}=xμϵf(x)xμϵf(x)ϵ2(xμ)2(xμϵϵ2(xμ)21)ϵ21+f(x)(xμ)2(f(x)(xμ)20)=ϵ2D(X)=ϵ2σ2

  • 理解

    首先 P { ∣ X − μ ∣ ≥ ϵ } P\{|X-\mu|\geq\epsilon\} P{Xμϵ} ,表示随便变量 X X X,落在以数学期望 μ \mu μ为中心, ϵ \epsilon ϵ范围以外的概率,用数轴简单表示如下

切比雪夫不等式

切比雪夫不等式描述了随机变量取值落在图中阴影部分的概率值上限为 D ( X ) ϵ 2 \frac{D(X)}{\epsilon^2} ϵ2D(X) ,其中 D ( X ) D(X) D(X)为方差,表示随机变量偏离期望的程度

  • ϵ \epsilon ϵ固定,方差越小,说明随机变量取值越多的集中在期望附近,则落在阴影区域 ∣ X − μ ∣ ≥ ϵ |X-\mu|\geq\epsilon Xμϵ内的概率就会变小,对应到切比雪夫不等式,表现为概率上限 D ( X ) ϵ 2 \frac{D(X)}{\epsilon^2} ϵ2D(X)变小。反之方差越大,随机变量偏离期望的程度越大,则落在阴影区域内的概率就会增大,对应到对应到切比雪夫不等式,表现为概率上限 D ( X ) ϵ 2 \frac{D(X)}{\epsilon^2} ϵ2D(X)变大

  • 当方差 D ( X ) D(X) D(X) 固定, ϵ \epsilon ϵ 越小, 则说明阴影区域越靠近期望 E ( X ) E(X) E(X) ,如图中的 ϵ 2 \epsilon_2 ϵ2,很明显以 ϵ 2 \epsilon_2 ϵ2为范围的阴影区域,要大于以 ϵ 1 \epsilon_1 ϵ1为范围的阴影区域,此时对应到切比雪夫不等式,表现为概率上限 D ( X ) ϵ 2 \frac{D(X)}{\epsilon^2} ϵ2D(X)变大

  • 意义

    切比雪夫不等式给出了随机变量的分布未知,只知道期数学期望和方差的情况下, P { ∣ X − μ ∣ ≥ ϵ } P\{|X-\mu|\geq\epsilon\} P{Xμϵ}的概率界限。根据切比雪夫不等式 P { ∣ X − μ ∣ < ϵ } ≥ 1 − σ 2 ϵ 2 P\{|X-\mu|<\epsilon\}\geq 1-\frac{\sigma^2}{\epsilon^2} P{Xμ<ϵ}1ϵ2σ2

    • ϵ = 2 σ \epsilon=2\sigma ϵ=2σ 时, P { ∣ X − μ ∣ < ϵ } ≥ 1 − σ 2 ϵ 2 = 0.75 P\{|X-\mu|<\epsilon\}\geq 1-\frac{\sigma^2}{\epsilon^2}=0.75 P{Xμ<ϵ}1ϵ2σ2=0.75
    • ϵ = 3 σ \epsilon=3\sigma ϵ=3σ 时, P { ∣ X − μ ∣ < ϵ } ≥ 1 − σ 2 ϵ 2 = 0.8889 P\{|X-\mu|<\epsilon\}\geq 1-\frac{\sigma^2}{\epsilon^2}=0.8889 P{Xμ<ϵ}1ϵ2σ2=0.8889
    • ϵ = 4 σ \epsilon=4\sigma ϵ=4σ 时, P { ∣ X − μ ∣ < ϵ } ≥ 1 − σ 2 ϵ 2 = 0.9375 P\{|X-\mu|<\epsilon\}\geq 1-\frac{\sigma^2}{\epsilon^2}=0.9375 P{Xμ<ϵ}1ϵ2σ2=0.9375
    • ϵ = 5 σ \epsilon=5\sigma ϵ=5σ 时, P { ∣ X − μ ∣ < ϵ } ≥ 1 − σ 2 ϵ 2 = 0.96 P\{|X-\mu|<\epsilon\}\geq 1-\frac{\sigma^2}{\epsilon^2}=0.96 P{Xμ<ϵ}1ϵ2σ2=0.96

2. 依概率收敛

  • 定义

    X 1 , X 2 , X 3 , ⋯   , X n , ⋯ X_1,X_2,X_3,\cdots,X_n,\cdots X1,X2,X3,,Xn, 是一个随机变量序列, a a a 是一个常数,若对于任意正数 ϵ \epsilon ϵ lim ⁡ n → + ∞ P { ∣ X n − a ∣ < ϵ } = 1 \lim\limits_{n\to+\infty}P\bigg\{\bigg|X_n-a\bigg|<\epsilon\bigg\}=1 n+limP{Xna<ϵ}=1则称序列 X 1 , X 2 , X 3 , ⋯   , X n , ⋯ X_1,X_2,X_3,\cdots,X_n,\cdots X1,X2,X3,,Xn, 依概率收敛于 a \pmb{a} aaa ,记做 X n → P a . X_n \stackrel{P}{\to} a. XnPa.

  • 理解

    我们知道,事件发生的概率为 1 1 1,并不代表该事件为必然事件。所以这里的依概率收敛,可以按这个思路来理解,整体是向 a a a逼近,但是可能出现个别的离散点偏离 a a a较远,但是不影响大趋势。这也是区别于收敛的地方,收敛要求满足特定条件后,所有点均逼近 a a a .

3. 切比雪夫大数定理

  • 定理内容

    X 1 , X 2 , X 3 , ⋯ X_1,X_2,X_3,\cdots X1,X2,X3, 是两两互不相关的随机变量序列,数学期望 E ( X i ) E(X_i) E(Xi)和方差 D ( X i ) D(X_i) D(Xi)都存在 ( i = 1 , 2 , 3 , ⋯   ) (i=1,2,3,\cdots) (i=1,2,3,),且存在常数 C , ( 0 ≤ C < + ∞ ) C ,(0\leq C < +\infty) C,(0C<+),使得 D ( X ) ≤ C D(X)\leq C D(X)C,则对于任意的 ϵ > 0 \epsilon>0 ϵ>0 lim ⁡ n → + ∞ P { ∣ 1 n ∑ i = 1 n X i − 1 n ∑ i = 1 n E ( X i ) ∣ < ϵ } = 1 \lim\limits_{n\to+\infty}P\bigg\{\bigg|\frac{1}{n}\sum\limits_{i=1}^{n}X_i-\frac{1}{n}\sum\limits_{i=1}^{n}E(X_i)\bigg|<\epsilon\bigg\}=1 n+limP{n1i=1nXin1i=1nE(Xi)<ϵ}=1

    证明

    E ( 1 n ∑ i = 1 n X i ) = 1 n ∑ i = 1 n E ( X i ) \begin{aligned} &E(\frac{1}{n}\sum\limits_{i=1}^{n}X_i)= \frac{1}{n}\sum\limits_{i=1}^{n}E(X_i)\end{aligned} E(n1i=1nXi)=n1i=1nE(Xi)

    因为 X 1 , X 2 , X 3 , ⋯ X_1,X_2,X_3,\cdots X1,X2,X3, 相互独立,因此有

    D ( 1 n ∑ i = 1 n X i ) = 1 n 2 ∑ i = 1 n D ( X i ) ≤ 1 n 2 n C = C n \begin{aligned} D(\frac{1}{n}\sum\limits_{i=1}^{n}X_i) = \frac{1}{n^2}\sum\limits_{i=1}^{n}D(X_i)\leq\frac{1}{n^2}nC=\frac{C}{n}\end{aligned} D(n1i=1nXi)=n21i=1nD(Xi)n21nC=nC

    根据切比雪夫不等式可知

    P { ∣ 1 n ∑ i = 1 n X i − 1 n ∑ i = 1 n E ( X i ) ∣ < ϵ } ≥ 1 − 1 n 2 ∑ i = 1 n D ( X i ) ϵ 2 ≥ 1 − C n ϵ 2 ∴ \begin{aligned} P\bigg\{\bigg|\frac{1}{n}\sum\limits_{i=1}^{n}X_i-\frac{1}{n}\sum\limits_{i=1}^{n}E(X_i)\bigg|<\epsilon\bigg\} &\geq 1- \frac{\frac{1}{n^2}\sum\limits_{i=1}^{n}D(X_i)}{\epsilon^2} \geq1- \frac{C}{n\epsilon^2}\\\therefore \quad \end{aligned} P{n1i=1nXin1i=1nE(Xi)<ϵ}1ϵ2n21i=1nD(Xi)1nϵ2C

    n → + ∞ n\to+\infty n+ 1 − C n ϵ 2 → 1 1- \frac{C}{n\epsilon^2} \to1 1nϵ2C1 ,且根据概率定义,必然有 P { ∣ 1 n ∑ i = 1 n X i − 1 n ∑ i = 1 n E ( X i ) ∣ < ϵ } ≤ 1 P\bigg\{\bigg|\frac{1}{n}\sum\limits_{i=1}^{n}X_i-\frac{1}{n}\sum\limits_{i=1}^{n}E(X_i)\bigg|<\epsilon\bigg\} \leq 1 P{n1i=1nXin1i=1nE(Xi)<ϵ}1 成立.

    ∴ lim ⁡ n → + ∞ P { ∣ 1 n ∑ i = 1 n X i − 1 n ∑ i = 1 n E ( X i ) ∣ < ϵ } = 1 \therefore \quad \lim\limits_{n\to+\infty}P\bigg\{\bigg|\frac{1}{n}\sum\limits_{i=1}^{n}X_i-\frac{1}{n}\sum\limits_{i=1}^{n}E(X_i)\bigg|<\epsilon\bigg\}=1 n+limP{n1i=1nXin1i=1nE(Xi)<ϵ}=1

  • 推论

    X 1 , X 2 , X 3 , ⋯ X_1,X_2,X_3,\cdots X1,X2,X3, 是独立同分布的随机变量序列,数学期望 E ( X i ) = μ E(X_i)=\mu E(Xi)=μ和方差 D ( X i ) = σ 2 D(X_i)=\sigma^2 D(Xi)=σ2都存在 ( i = 1 , 2 , 3 , ⋯   ) (i=1,2,3,\cdots) (i=1,2,3,),则对于任意的 ϵ > 0 \epsilon>0 ϵ>0 lim ⁡ n → + ∞ P { ∣ 1 n ∑ i = 1 n X i − μ ∣ < ϵ } = 1 \lim\limits_{n\to+\infty}P\bigg\{\bigg|\frac{1}{n}\sum\limits_{i=1}^{n}X_i-\mu\bigg|<\epsilon\bigg\}=1 n+limP{n1i=1nXiμ<ϵ}=1

4. 弱大数定理(辛钦大数定理)

  • 定义

    X 1 , X 2 , ⋯ X_1,X_2,\cdots X1,X2,是独立同分布的随机变量序列,且具有数学期望 E ( X k ) = μ ( k = 1 , 2 , ⋯   ) . E(X_k)=\mu \quad(k=1,2,\cdots). E(Xk)=μ(k=1,2,). 作前 n n n个变量的算术平均 1 n ∑ k = 1 n X k \frac{1}{n}\sum\limits_{k=1}^{n}X_k n1k=1nXk,则对于任意 ϵ > 0 \epsilon>0 ϵ>0,有 lim ⁡ n → + ∞ P { ∣ 1 n ∑ k = 1 n X k − μ ∣ < ϵ } = 1 \lim\limits_{n\to+\infty}P\bigg\{\bigg|\frac{1}{n}\sum\limits_{k=1}^{n}X_k-\mu\bigg|<\epsilon\bigg\}=1 n+limP{n1k=1nXkμ<ϵ}=1

    相比切比雪夫不等式,辛钦大数定理没有要求随机变量的方差存在。如果随机变量方差存在,则利用切比雪夫不等式很容易证得,至于方差不存在时,暂不会证明。

5. 伯努利大数定理

  • 定义

    f A f_A fA n n n次独立重复试验中事件 A A A发生的次数, p p p是事件 A A A在每次试验中发生的概率,则对于任意正数 ϵ > 0 \epsilon>0 ϵ>0,有 lim ⁡ n → + ∞ P { ∣ f A n − p ∣ < ϵ } = 1. \lim\limits_{n\to+\infty}P\bigg\{\bigg|\frac{f_A}{n}-p\bigg|<\epsilon\bigg\}=1. n+limP{nfAp<ϵ}=1.

    lim ⁡ n → + ∞ P { ∣ f A n − p ∣ ≥ ϵ } = 0 \lim\limits_{n\to+\infty}P\bigg\{\bigg|\frac{f_A}{n}-p\bigg|\geq\epsilon\bigg\}=0 n+limP{nfApϵ}=0

    分析

    { X k = 1 , 第 k 次 试 验 , A 发 生 X k = 0 , 第 k 次 试 验 , A 不 发 生 \begin{cases}X_k=1,第k次试验,A发生\\X_k=0,第k次试验,A不发生 \end{cases} {Xk=1,kAXk=0,kA

    f A = ∑ k = 1 n X k → f A n = 1 n ∑ k = 1 n X k f_A=\sum\limits_{k=1}^{n}X_k \quad \to \frac{f_A}{n}=\frac{1}{n}\sum\limits_{k=1}^{n}X_k fA=k=1nXknfA=n1k=1nXk

    对于 n n n重伯努利试验,有数学期望 E ( X k ) = p E(X_k)=p E(Xk)=p

    由辛钦大数定理可知有 lim ⁡ n → + ∞ P { ∣ 1 n ∑ k = 1 n X k − μ ∣ < ϵ } = 1 \lim\limits_{n\to+\infty}P\bigg\{\bigg|\frac{1}{n}\sum\limits_{k=1}^{n}X_k-\mu\bigg|<\epsilon\bigg\}=1 n+limP{n1k=1nXkμ<ϵ}=1

    lim ⁡ n → + ∞ P { ∣ f A n − p ∣ < ϵ } = 1. \lim\limits_{n\to+\infty}P\bigg\{\bigg|\frac{f_A}{n}-p\bigg|<\epsilon\bigg\}=1. n+limP{nfAp<ϵ}=1.

    该定理表明,当试验次数 n n n足够大时,可以用事件发生的频率代替事件的概率

  • 4
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

积跬步以至千里。

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值