贝叶斯式相亲
文章目录
一天,小西找到小迪。
小西:小迪,最近我闺蜜的男朋友向她求婚了。
小迪:然后呢,她答应了吗?
小西:还没有呢,他们认识时间还不是很长。而且,我闺蜜觉得那个男生有些方面不符合她的择偶标准,她现在也是非常纠结呢!
小迪:婚姻还是要理性一点,如果她不知道该如何判断,或许朴素贝叶斯算法可以帮助她去理性得看待这个问题。
小西:朴素贝叶斯是什么?它是怎么帮助人类理性分析问题的呢?
小迪:贝叶斯分类算法是统计学的一种概率分类方法,朴素贝叶斯分类是贝叶斯分类中最简单的一种。其分类原理就是利用贝叶斯公式根据某特征的先验概率计算出其后验概率,然后选择具有最大后验概率的类作为该特征所属的类。之所以称之为”朴素”,是因为贝叶斯分类只做最原始、最简单的假设:所有的特征之间是统计独立的。
小西:听上去还是非常多逻辑性呢!那我们该如何使用它呢?
小迪:那我们就以一个女生是否选择要嫁给一个男生为例解释一下这个算法。
一、概述
想要搞懂朴素贝叶斯算法,一定要先理解条件概率公式跟全概率公式,这两个公式在大学时候我们都学过,下面我们来回顾一下。
假设某样本X有 a 1 , a 2 , … , a n a_1,a_2,…,a_n a1,a2,…,an个属性,那么有 P ( X ) = P ( a 1 , a 2 , … , a n ) = P ( a 1 ) ∗ P ( a 2 ) ∗ … ∗ P ( a n ) P(X)=P(a_1,a_2,…,a_n) = P(a_1)*P(a_2)*…*P(a_n) P(X)=P(a1,a2,…,an)=P(a1)∗P(a2)∗…∗P(an)。满足这样的公式就说明特征统计独立。
1. 条件概率公式
条件概率(Condittional probability),就是指在事件B发生的情况下,事件A发生的概率,用P(A|B)来表示。
根据文氏图可知:在事件B发生的情况下,事件A发生的概率就是P(A∩B)除以P(B)。
P
(
A
∣
B
)
=
P
(
A
∩
B
)
P
(
B
)
=
>
P
(
A
∩
B
)
=
P
(
A
∣
B
)
P
(
B
)
P(A|B)=\frac{P(A∩B)}{P(B)}\\ =>P(A∩B)=P(A|B)P(B)\\
P(A∣B)=P(B)P(A∩B)=>P(A∩B)=P(A∣B)P(B)
同理可得:
P
(
A
∩
B
)
=
P
(
B
∣
A
)
P
(
A
)
P(A∩B)=P(B|A)P(A)
P(A∩B)=P(B∣A)P(A)
所以,
P
(
A
∣
B
)
P
(
B
)
=
P
(
B
∣
A
)
P
(
A
)
=
>
P
(
A
∣
B
)
=
P
(
B
∣
A
)
P
(
A
)
P
(
B
)
P(A|B)P(B)=P(B|A)P(A)\\ =>P(A|B)=\frac{P(B|A)P(A)}{P(B)}
P(A∣B)P(B)=P(B∣A)P(A)=>P(A∣B)=P(B)P(B∣A)P(A)
接着看全概率公式,如果事件
A
1
,
A
2
,
A
3
,
…
,
A
n
A_1,A_2,A_3,…,A_n
A1,A2,A3,…,An构成一个完备事件且都有正概率,那么对于任意一个事件B则有:
KaTeX parse error: No such environment: align* at position 8: \begin{̲a̲l̲i̲g̲n̲*̲}̲ P(B)&=P(BA_1)+…
P ( B ) = ∑ i = 1 n P ( A i ) P ( B ∣ A i ) P(B)=\sum_{i=1}^nP(A_i)P(B|A_i) P(B)=i=1∑nP(Ai)P(B∣Ai)
2. 贝叶斯推断
根据条件概率和全概率公式,可以得到贝叶斯公式如下:
P
(
A
∣
B
)
=
P
(
A
)
P
(
B
∣
A
)
P
(
B
)
P
(
A
i
∣
B
)
=
P
(
A
i
)
P
(
B
∣
A
i
)
∑
i
=
1
n
P
(
A
i
)
P
(
B
∣
A
i
)
P(A|B)=P(A)\frac{P(B|A)}{P(B)}\\ P(A_i|B)=P(A_i)\frac{P(B|A_i)}{\sum_{i=1}^nP(A_i)P(B|A_i)}
P(A∣B)=P(A)P(B)P(B∣A)P(Ai∣B)=P(Ai)∑i=1nP(Ai)P(B∣Ai)P(B∣Ai)
P(A)称为"先验概率"(Prior probability),即在B事件发生之前,我们对A事件概率的一个判断。
P(A|B)称为"后验概率"(Posterior probability),即在B事件发生之后,我们对A事件概率的重新评估。
P(B|A)/P(B)称为"可能性函数"(Likely hood),这是一个调整因子,使得预估概率更接近真实概率。
所以条件概率可以理解为:后验概率 = 先验概率 * 调整因子
如果"可能性函数">1,意味着"先验概率"被增强,事件A的发生的可能性变大;
如果"可能性函数"=1,意味着B事件无助于判断事件A的可能性;
如果"可能性函数"<1,意味着"先验概率"被削弱,事件A的可能性变小。
3. 嫁?还是不嫁?这是一个问题……
下面我们就以“嫁不嫁”这个问题应用一下我们的朴素贝叶斯算法。
颜值 | 性格 | 上进否 | 嫁与否 |
---|---|---|---|
帅 | 好 | 上进 | 嫁 |
不帅 | 好 | 一般 | 不嫁 |
不帅 | 不好 | 不上进 | 不嫁 |
帅 | 好 | 一般 | 嫁 |
不帅 | 好 | 上进 | 嫁 |
帅 | 不好 | 一般 | 不嫁 |
帅 | 好 | 不上进 | 嫁 |
不帅 | 不好 | 上进 | 不嫁 |
帅 | 不好 | 上进 | 嫁 |
不帅 | 好 | 不上进 | 不嫁 |
上面这张表是根据女生根据假象男生的性格来决定是否嫁给他的标准信息表,我们利用这张表来针对特定男生的信息计算是否值得嫁的概率。
假设某个男生帅,性格不好,不上进,那么:
根据贝叶斯公式:
P
(
A
∣
B
)
=
P
(
A
)
P
(
B
∣
A
)
P
(
B
)
P(A|B)=P(A)\frac{P(B|A)}{P(B)}
P(A∣B)=P(A)P(B)P(B∣A)
转换成分类任务的表达式:
P
(
类
别
∣
特
征
)
=
P
(
类
别
)
P
(
特
征
∣
类
别
)
P
(
特
征
)
P(类别|特征)=P(类别)\frac{P(特征|类别)}{P(特征)}
P(类别∣特征)=P(类别)P(特征)P(特征∣类别)
按照朴素贝叶斯的求解,可以转换为计算
P
(
嫁
∣
帅
性
格
不
好
不
上
进
)
P(嫁|帅\ 性格不好\ 不上进)
P(嫁∣帅 性格不好 不上进)和
P
(
不
嫁
∣
帅
性
格
不
好
不
上
进
)
P(不嫁|帅\ 性格不好\ 不上进)
P(不嫁∣帅 性格不好 不上进),最终选择嫁与不嫁的答案。
P ( 嫁 ∣ 帅 性 格 不 好 不 上 进 ) = P ( 嫁 ) P ( 帅 ∣ 嫁 ) P ( 性 格 不 好 ∣ 嫁 ) P ( 不 上 进 ∣ 嫁 ) P ( 帅 性 格 不 好 不 上 进 ) P(嫁|帅\ 性格不好\ 不上进)=P(嫁)\frac{P(帅|嫁)P(性格不好|嫁)P(不上进|嫁)}{P(帅\ 性格不好\ 不上进)} P(嫁∣帅 性格不好 不上进)=P(嫁)P(帅 性格不好 不上进)P(帅∣嫁)P(性格不好∣嫁)P(不上进∣嫁)
P ( 不 嫁 ∣ 帅 性 格 不 好 不 上 进 ) = P ( 不 嫁 ) P ( 帅 ∣ 不 嫁 ) P ( 性 格 不 好 ∣ 不 嫁 ) P ( 不 上 进 ∣ 不 嫁 ) P ( 帅 性 格 不 好 不 上 进 ) P(不嫁|帅\ 性格不好\ 不上进)=P(不嫁)\frac{P(帅|不嫁)P(性格不好|不嫁)P(不上进|不嫁)}{P(帅\ 性格不好\ 不上进)} P(不嫁∣帅 性格不好 不上进)=P(不嫁)P(帅 性格不好 不上进)P(帅∣不嫁)P(性格不好∣不嫁)P(不上进∣不嫁)
分母的计算用到的是全概率公式:
P
(
B
)
=
∑
i
=
1
n
P
(
A
i
)
P
(
B
∣
A
i
)
P(B)=\sum_{i=1}^nP(A_i)P(B|A_i)
P(B)=i=1∑nP(Ai)P(B∣Ai)
所以
P
(
帅
性
格
不
好
不
上
进
)
=
P
(
嫁
)
P
(
帅
∣
嫁
)
P
(
性
格
不
好
∣
嫁
)
P
(
不
上
进
∣
嫁
)
+
P
(
不
嫁
)
P
(
帅
∣
不
嫁
)
P
(
性
格
不
好
∣
不
嫁
)
P
(
不
上
进
∣
不
嫁
)
P(帅\ 性格不好\ 不上进) = \\P(嫁)P(帅|嫁)P(性格不好|嫁)P(不上进|嫁) \\+ P(不嫁)P(帅|不嫁)P(性格不好|不嫁)P(不上进|不嫁)
P(帅 性格不好 不上进)=P(嫁)P(帅∣嫁)P(性格不好∣嫁)P(不上进∣嫁)+P(不嫁)P(帅∣不嫁)P(性格不好∣不嫁)P(不上进∣不嫁)
由上面得出:
P(嫁)= 5/10 = 1/2
P(不嫁)= 5/10 = 1/2
P(帅|嫁) * P(性格不好|嫁) * P(不上进|嫁)= 4/5 * 1/5 * 1/5
P(帅|不嫁) * P(性格不好|不嫁) * P(不上进|不嫁) = 1/5 * 3/5 * 2/5
对于类别“嫁”的贝叶斯分子为:
P(嫁) * P(帅|嫁) * P(性格不好|嫁) * P(不上进|嫁) = 1/2 * 4/5 * 1/5 * 1/5 = 2/125
对于类别“不嫁”的贝叶斯分子为:
P(不嫁) * P(帅|不嫁) * P(性格不好|不嫁) * P(不上进|不嫁) = 1/2 * 1/5 * 3/5 * 2/5 = 3/125
所以最终结果为:
P(嫁|帅\ 性格不好\ 不上进) = (2/125) / (2/125 + 3/125) = 40%
P(不嫁|帅\ 性格不好\ 不上进) = (3/125) / (2/125 + 3/125) = 60%
60% > 40%,该女生选择不嫁。
二、朴素贝叶斯种类
小西:朴素贝叶斯就是根据先验概率与调整因子来确定概率的,是吧!
小迪:没错,但是朴素贝叶斯的形式确不止如此。在scikit-learn中,一共有3个朴素贝叶斯的分类算法。分别是GaussianNB,MultinomialNB和BernoulliNB。
1. GaussianNB
GaussianNB就是先验为高斯分布(正态分布)的朴素贝叶斯,假设每个标签的数据都服从简单的正态分布。
KaTeX parse error: Invalid delimiter: '{"type":"ordgroup","mode":"math","loc":{"lexer":{"input":"\nP(X_j=x_j|Y=C_k) = \\frac{1}{\\sqrt{2\\pi\\sigma_k^2}}exp\\Bigg{(}-\\frac{(x_j - \\mu_k)^2}{2\\sigma_k^2}\\Bigg{)}\n","settings":{"displayMode":true,"throwOnError":true,"errorColor":"#cc0000","macros":{},"colorIsTextColor":false,"strict":"warn","maxSize":null,"maxExpand":1000,"allowedProtocols":["http","https","mailto","_relative"]},"tokenRegex":{}},"start":59,"end":62},"body":[{"type":"atom","mode":"math","family":"open","loc":{"lexer":{"input":"\nP(X_j=x_j|Y=C_k) = \\frac{1}{\\sqrt{2\\pi\\sigma_k^2}}exp\\Bigg{(}-\\frac{(x_j - \\mu_k)^2}{2\\sigma_k^2}\\Bigg{)}\n","settings":{"displayMode":true,"throwOnError":true,"errorColor":"#cc0000","macros":{},"colorIsTextColor":false,"strict":"warn","maxSize":null,"maxExpand":1000,"allowedProtocols":["http","https","mailto","_relative"]},"tokenRegex":{}},"start":60,"end":61},"text":"("}]}' after '\Bigg' at position 60: …a_k^2}}exp\Bigg{̲(̲}̲-\frac{(x_j - \…
其中
C
k
C_k
Ck为Y的第k类类别。
μ
k
和
σ
k
2
\mu_k和\sigma_k^2
μk和σk2为需要从训练集估计的值。
我们可以使用用scikit-learn简单实现一下GaussianNB。
#导入包
import pandas as pd
from sklearn.naive_bayes import GaussianNB
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
#导入数据集
from sklearn import datasets
iris=datasets.load_iris()
#切分数据集
Xtrain, Xtest, ytrain, ytest = train_test_split(iris.data,
iris.target,
random_state=12)
#建模
clf = GaussianNB()
clf.fit(Xtrain, ytrain)
#在测试集上执行预测,proba导出的是每个样本属于某类的概率
clf.predict(Xtest)
clf.predict_proba(Xtest)
#测试准确率
accuracy_score(ytest, clf.predict(Xtest))
2. MultinomialNB
MultinomialNB就是先验为多项式分布的朴素贝叶斯。它假设特征是由一个简单多项式分布生成的。多项分布可以描述各种类型样本出现次数的概率,因此多项式朴素贝叶斯非常适合用于描述出现次数或者出现次数比例的特征。该模型常用于文本分类,特征表示的是次数,例如某个词语的出现次数。
多项式分布公式如下:
P
(
X
j
=
x
j
l
∣
Y
=
C
k
)
=
x
j
l
+
λ
m
k
+
n
λ
P(X_j=x_{jl}|Y=C_k) = \frac{x_{jl} + \lambda}{m_k + n\lambda}
P(Xj=xjl∣Y=Ck)=mk+nλxjl+λ
其中,
P
(
X
j
=
x
j
l
∣
Y
=
C
k
)
P(X_j=x_{jl}|Y=C_k)
P(Xj=xjl∣Y=Ck)是第k个类别的第j维特征的第l个取值条件概率。
m
k
m_k
mk是训练集中输出为第k类的样本个数。
λ
\lambda
λ 为一个大于0的常数,常常取为1,即拉普拉斯平滑。也可以取其他值。
3. BernoulliNB
BernoulliNB就是先验为伯努利分布的朴素贝叶斯。假设特征的先验概率为二元伯努利分布,即如下式:
P
(
X
j
=
x
j
l
∣
Y
=
C
k
)
=
P
(
j
∣
Y
=
C
k
)
x
j
l
+
(
1
−
P
(
j
∣
Y
=
C
k
)
(
1
−
x
j
l
)
P(X_j=x_{jl}|Y=C_k) = P(j|Y=C_k)x_{jl} + (1 - P(j|Y=C_k)(1-x_{jl})
P(Xj=xjl∣Y=Ck)=P(j∣Y=Ck)xjl+(1−P(j∣Y=Ck)(1−xjl)
此时
l
l
l只有两种取值。
x
j
l
x_{jl}
xjl只能取值0或者1。
在伯努利模型中,每个特征的取值是布尔型的,即true和false,或者1和0。在文本分类中,就是一个特征有没有在一个文档中出现。
小西:那我们该在什么情况下分别使用这三种朴素贝叶斯模型呢?
小迪:一般来说,如果样本特征的分布大部分是连续值,使用GaussianNB会比较好。如果如果样本特征的分布大部分是多元离散值,使用MultinomialNB比较合适。而如果样本特征是二元离散值或者很稀疏的多元离散值,应该使用BernoulliNB。
小西:原来如此。
注:所有图片均来源于网络