机器学习|切比雪夫、辛钦和贝努里大数定律|15mins入门|概统学习笔记(十四)

背景:概率论与数理统计是研究随机现象统计规律性的学科。随机现象的规律性只有在相同的条件下进行大量重复试验时才会呈现出来。而研究大量的随机现象,常常采用极限形式,由此导致对极限定理进行研究,极限定理的内容很广泛,其中最重要有两种:大数定律和中心极限定理。

大数定律

  • 客观背景:(随机现象最根本的性质之一)大量的随机现象中平均结果的稳定性,如大量抛掷硬币正面出现的频率

  • 几种常见的大数定律

    • 定理1:切比雪夫大数定律

      X 1 , X 2 , . . . X_1,X_2,... X1,X2,...是相互独立的随机变量序列,它们都有有限的方差,并且方差有共同的上界,即 D ( X i ) ≤ K , i = 1 , 2 , . . . D(X_i)\leq K,i=1,2,... D(Xi)K,i=1,2,...,则对任意的 ϵ > 0 \epsilon>0 ϵ>0
      l i m n → ∞ P { ∣ 1 n ∑ i = 1 n X i − 1 n ∑ i = 1 n E ( X i ) ∣ < ϵ } = 1 lim_{n\to \infty}P\{|\frac{1}{n}\sum_{i=1}^nX_i-\frac{1}{n}\sum_{i=1}^nE(X_i)|<\epsilon\}=1 limnP{n1i=1nXin1i=1nE(Xi)<ϵ}=1
      证明切比雪夫大数定律主要的数学工具是切比雪夫不等式

      即设随机变量X有期望 E ( X ) E(X) E(X)和方差 σ 2 \sigma^2 σ2,则对于任给 ϵ > 0 \epsilon>0 ϵ>0,有
      P { ∣ X − E ( X ) ∣ < ϵ } ≥ 1 − σ 2 ϵ 2 P\{|X-E(X)|<\epsilon\}\geq 1-\frac{\sigma^2}{\epsilon^2} P{XE(X)<ϵ}1ϵ2σ2
      意义:切比雪夫大数定律给出了平均值稳定性的科学描述.它表明,独立随机变量序列 { X n } \{X_n\} {Xn},如果方差有共同的上界,则 1 n ∑ i = 1 n X i \frac{1}{n}\sum_{i=1}^nX_i n1i=1nXi与其数学期望 1 n ∑ i = 1 n E ( X i ) \frac{1}{n}\sum_{i=1}^nE(X_i) n1i=1nE(Xi)偏差很小的概率接近于1。

      即当n充分大时, 1 n ∑ i = 1 n X i \frac{1}{n}\sum_{i=1}^nX_i n1i=1nXi差不多不再是随机的了,取值接近于其数学期望的概率接近于1。

    • 定理2:独立同分布下的大数定律

      X 1 , X 2 , . . . X_1,X_2,... X1,X2,...是独立同分布的随机变量序列,且 E ( X i ) = μ , D ( X i ) = σ 2 , i = 1 , 2 , . . . E(X_i)=\mu,D(X_i)=\sigma^2,\quad i=1,2,... E(Xi)=μ,D(Xi)=σ2,i=1,2,...,则对任给 ϵ > 0 \epsilon >0 ϵ>0,有
      l i m n → ∞ P { ∣ 1 n ∑ i = 1 n X i − μ ∣ < ϵ } = 1 lim_{n\to \infty}P\{|\frac{1}{n}\sum_{i=1}^nX_i-\mu|<\epsilon\}=1 limnP{n1i=1nXiμ<ϵ}=1
      辛钦大数定律:上述中,不要求随机变量的方差( D ( X i ) = σ 2 D(X_i)=\sigma^2 D(Xi)=σ2)存在。

      意义:辛钦大数定律为寻找随机变量的期望值提供了一条实际可行的途径

      例如,要估计某地区的平均亩产量,要收割某些有代表性的地块,例如n 块. 计算其平均亩产量,则当n 较大时,可用它作为整个地区平均亩产量的一个估计.

    • 定理3:贝努里大数定律(是定理2的一种特例)

      S n S_n Sn是n重贝努里试验中事件A发生的次数,p是事件A发生的概率,引入

    X i = { 1 , 第 i 次 试 验 A 发 生 0 , 第 i 次 试 验 A 不 发 生 X_i=\begin{cases}1, & 第i次试验A发生 \\0, & 第i次试验A不发生\end{cases} Xi={1,0,iAiA

    ​ 其中 i = 1 , 2 , . . . , n i=1,2,...,n i=1,2,...,n,则 S n = ∑ j = 1 n X i S_n=\sum_{j=1}^nX_i Sn=j=1nXi

    ​ 而 S n n = 1 n ∑ i = 1 n X i \frac{S_n}{n}=\frac{1}{n}\sum_{i=1}^nX_i nSn=n1i=1nXi是事件A发生的频率

    ​ 则对任给的 ϵ > 0 \epsilon>0 ϵ>0
    l i m n → ∞ P { ∣ S n n − p ∣ < ϵ } = 1 lim_{n\to \infty}P\{|\frac{S_n}{n}-p|<\epsilon\}=1 limnP{nSnp<ϵ}=1
    ​ 或
    l i m n → ∞ P ∣ S n n − p ∣ ≥ ϵ = 0 lim_{n\to \infty}P{|\frac{S_n}{n}-p|\geq \epsilon}=0 limnPnSnpϵ=0
    ​ 意义:贝努里大数定律提供了通过试验来确定事件概率的方法。它表明,当重复试验次数n充分大 时,事件A发生的频率 S n / n S_n/n Sn/n与事件A的频率p有较大偏差的概率很小。

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值