详解贝叶斯(一):贝叶斯概率

详解贝叶斯(一):贝叶斯概率

原文转载自:码海拾遗 - 详解贝叶斯(一):贝叶斯概率

什么是贝叶斯概率

要解释什么是贝叶斯概率,不如先回顾一下经典的概率,中学课本里我们把概率定义为事件发生的可能性,认为概率是一个确定的值, 但是这个取值我们不知道。那这个值如何求得呢?可以通过统计事情的频率获得概率的近似。比如不断的抛一枚均匀的骰子🎲,随着次数的增加,统计的各点数出现的频率不断的趋近于一个定值,这个定值就是某个点数出现的概率。写段脚本模拟投10万次骰子,把各点数频率变化画出来就能发现均趋于稳定在 1 6 \frac{1}{6} 61,就是各点数的概率。当结果是一个不确定但可重复的过程的结果时,概率总是可以通过简单地观察多次过程的重复并计算每个事件发生的频率来衡量。这些频率概率可以很好地陈述客观现实。

概率

在现实生活中,很多事情是不能重复的,而且我们获取到的信息往往也是不全面的,往往我们就只能在信息有限的情况下,尽可能做出一个好的预测。贝叶斯框架下的概率理论从另一个角度定义了概率, 他说概率是我们个人的一个主观概念, 表明我们对某个事物是否发生的相信程度。 我们通过观测到的数据对这结果进行更新,从而得到更为准确的估计。相较于上文中已知一个骰子是什么样的情况下去统计或者计算每个点数的情况,更多的时候是我只知道一个骰子抛出了4、6、5的序列,要推测这个骰子是4面、6面、8面、12面还是20面的骰子。这时候贝叶斯概率就该出场了。

骰子

贝叶斯公式:
P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) P(A|B) = \frac{P(B|A)P(A)}{P(B)} P(AB)=P(B)P(BA)P(A)

P ( A ) P(A) P(A)​是A的**先验概率**或边缘概率。之所以称为"先验"是因为它不考虑任何B方面的因素。

P ( A ∣ B ) P(A|B) P(AB)是已知B发生后A的条件概率,称作A的**后验概率**。

P ( B ∣ A ) P(B|A) P(BA)​​是已知A发生后B的条件概率,也称之为似然度

P ( B ) P(B) P(B)​是B的先验概率或边缘概率,也作标准化常量(normalized constant)。

如何计算贝叶斯概率

我们现在已经知道了贝叶斯公式,那如何套用公式计算出各种骰子的可能性呢?我们用python来模拟一下贝叶斯分析的过程。

首先我们定义 P ( A ) P(A) P(A)​是骰子为某种类型(4面、6面等)的先验概率。这里我们目前什么都不知道,只知道骰子可能是4面、6面、8面、12面或者20面,那就暂且认为是等概率的好了。

pa = {4: 0.2, 6: 0.2, 8: 0.2, 12: 0.2,  20: 0.2}

接下来解决第二个问题,似然度怎么计算。这个似然度其实就是条件概率,对于M面骰子来说投出1~M的数字D的概率自然是$ \frac{1}{M} ​​。这里定义一个函数来表示 ​​。这里定义一个函数来表示 ​​。这里定义一个函数来表示P(B|A)$​​​​,也就是知道面数后投掷出某个数字的概率:

def likelihood(D, M):
    if D <= M:
        return 1.0 / M
    else:
        return 0.0

之后就是第三个问题, P ( B ) P(B) P(B)​​是什么,又如何计算。在这个问题中,A代表骰子为某种类型的先验概率,那B自然代表掷出某一点数的概率。在这里是骰子在不同面数的情况下投掷出某个点数的概率的和。套上公式,定义一个计算函数:

def bayes(prior, likelihood, D):
    # 计算每个模型的贝叶斯定理分子。
    prob = {M: prior[M] * likelihood(D, M) for M in prior}
    # 计算每个模型的贝叶斯定理分母。
    norm = sum(prob.values())
    # 返回每个模型的后验概率。
    return {M: prob[M] / norm for M in prob}

现在,我们知道骰子掷出了一个4,那带入公式计算可得:

p = bayes(pa,likelihood,4)
print(p)

这时计算出来的结果发现掷出一个4的情况下,骰子面数的可能是:

{
4: 0.37037037037037035,
6: 0.24691358024691357,
8: 0.18518518518518517,
12: 0.12345679012345678,
20: 0.07407407407407408
}

代码虽然不长,但是可能不是很直观,所以第一遍计算我们先详细展开一下公式:
原始公式: P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) P ( A ) : 骰子为某个面数的概率 P ( B ) : 骰子投掷出某个数字的概率 P ( B ∣ A ) : 在知道骰子为某个面数时,投出某个数字的概率 P ( A ∣ B ) : 在知道骰子投出某个数字时 , 骰子是某个面数的概率 原始公式:P(A|B) = \frac{P(B|A)P(A)}{P(B)} \\ P(A):骰子为某个面数的概率 \\ P(B):骰子投掷出某个数字的概率 \\ P(B|A):在知道骰子为某个面数时,投出某个数字的概率\\ P(A|B):在知道骰子投出某个数字时,骰子是某个面数的概率\\ 原始公式:P(AB)=P(B)P(BA)P(A)P(A):骰子为某个面数的概率P(B):骰子投掷出某个数字的概率P(BA):在知道骰子为某个面数时,投出某个数字的概率P(AB):在知道骰子投出某个数字时,骰子是某个面数的概率
首先,在没有其他信息的情况下,预设 P ( A ) P(A) P(A)是均匀分布的,所以骰子每个面数的概率如下:
P ( A i ) = 1 5 = 0.2 i 是骰子的面数 P(A_i) = \frac{1}{5} = 0.2 \\ i是骰子的面数 P(Ai)=51=0.2i是骰子的面数
其次对于均匀的普通骰子来说, P ( B ∣ A ) P(B|A) P(BA)的值也是已知的:
P ( B j ∣ A i ) = { 1 i , 0 ≤ j ≤ i 0 , j > i i 是骰子的面数 , j 是投掷出的数字 P(B_j|A_i) = \begin{cases} \frac{1}{i}, & 0 \leq j \leq i \\ 0, & j \gt i \end{cases}\\ i是骰子的面数,j是投掷出的数字 P(BjAi)={i1,0,0jij>ii是骰子的面数,j是投掷出的数字
投掷出某个数字的 P ( B ) P(B) P(B),其实就是各个不同面数的骰子投出某个数字的概率的和:
P ( B j ) = ∑ i P ( B j ∣ A i ) P ( A i ) P(B_j) = \sum_{i}P(B_j|A_i)P(A_i) P(Bj)=iP(BjAi)P(Ai)

可以看出求和的部分其实就是原始公式里分子在不同面数情况下的和。所以第一步投出了4,可以算出此时的后验概率 P ( A ∣ B ) P(A|B) P(AB)为:
4 面体骰子的情况 : P ( A 4 ∣ B 4 ) = P ( B 4 ∣ A 4 ) P ( A 4 ) P ( B 4 ) = 1 4 × 1 5 P ( B 4 ) = 0.05 ∑ ( P ( B 4 ∣ A i ) P ( A i ) = 0.05 ( 1 4 × 1 5 ) + ( 1 6 × 1 5 ) + ( 1 8 × 1 5 ) + ( 1 12 × 1 5 ) + ( 1 20 × 1 5 ) = 0.05 0.135 ≈ 0.37 同理其他面骰子 : P ( A 6 ∣ B 4 ) ≈ 0.033 0.135 ≈ 0.25 P ( A 8 ∣ B 4 ) = 0.025 0.135 ≈ 0.18 P ( A 12 ∣ B 4 ) ≈ 0.017 0.135 ≈ 0.12 P ( A 20 ∣ B 4 ) = 0.01 0.135 ≈ 0.07 4面体骰子的情况:\\ P(A_4|B_4) = \frac{P(B_4|A_4)P(A_4)}{P(B_4)} = \frac{\frac{1}{4}\times\frac{1}{5}}{P(B_4)}\\ =\frac{0.05}{\sum(P(B_4|A_i)P(A_i)}\\ =\frac{0.05}{(\frac{1}{4}\times\frac{1}{5})+(\frac{1}{6}\times\frac{1}{5})+(\frac{1}{8}\times\frac{1}{5})+(\frac{1}{12}\times\frac{1}{5})+(\frac{1}{20}\times\frac{1}{5})}\\ =\frac{0.05}{0.135}\approx0.37\\ 同理其他面骰子:\\P(A_6|B_4)\approx\frac{0.033}{0.135}\approx0.25\\ P(A_8|B_4)=\frac{0.025}{0.135}\approx0.18\\P(A_{12}|B_4)\approx\frac{0.017}{0.135}\approx0.12\\ P(A_{20}|B_4)=\frac{0.01}{0.135}\approx0.07 4面体骰子的情况:P(A4B4)=P(B4)P(B4A4)P(A4)=P(B4)41×51=(P(B4Ai)P(Ai)0.05=(41×51)+(61×51)+(81×51)+(121×51)+(201×51)0.05=0.1350.050.37同理其他面骰子:P(A6B4)0.1350.0330.25P(A8B4)=0.1350.0250.18P(A12B4)0.1350.0170.12P(A20B4)=0.1350.010.07

手工计算的结果和python代码计算的结果相同。

在进行完一轮计算后,我们发现观察到的投掷骰子的结果,对骰子面数的概率估计产生了影响。我们用已知情况计算出来的后验概率更新一下先验概率 P ( A ) P(A) P(A)​​,再代入贝叶斯公式不断迭代:

pa = p
p = bayes(pa,likelihood,6)
pa = p
p = bayes(pa,likelihood,5)
print(p)

得到最后的估计:

{
4: 0.0,
6: 0.6353744738305138,
8: 0.26804860614724807,
12: 0.07942180922881423,
20: 0.017155110793423883
}

从观察到的骰子点数序列,反推出有63.54%的概率是6面骰子。这个案例很明显,哪怕稍微对数字有点感觉,你都能一眼看出肯定是6面的概率最高,根本不用计算,但是在复杂情况下,条件、变量一多,直觉肯定是指望不上了。

贝叶斯定理的应用

贝叶斯定理有很多的应用,如果把前文中骰子的例子改造一下,把观测到的点数换成单位时间里战场上新观察到的敌方坦克车身上的编号,如果这个编号也是连续的话,骰子的面数自然就成了敌方兵工厂在单位时间里的产能了。

在真实的二战中,德军正在大规模生产坦克,盟军为了获知其产量使用了多种手段。一方面利用情报人员进行刺探,另一方面根据盟军发现和截获的坦克数量使用统计方法计算。二战之后,盟军对德国的坦克生产记录进行了检查,发现利用统计方法作出的估计令人惊奇地与事实相符1

月份统计估计情报估计德军记录
1940.61691000122
1941.62441550271
1942.83271550342

到了现代社会,贝叶斯定理也有非常多的应用,比如在机器学习上非常经典的贝叶斯分类器,广泛应用于反垃圾邮件。此外还有贝叶斯拼写检查器等。

参考文献


  1. Ruggles, R.; Brodie, H. (1947). “An Empirical Approach to Economic Intelligence in World War II”.[J], Journal of the American Statistical Association. 42 (237): 72. ↩︎

  • 5
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值