机器学习算法(二): 朴素贝叶斯(Naive Bayes)

1.1 朴素贝叶斯的介绍

朴素贝叶斯算法(Naive Bayes, NB) 是应用最为广泛的分类算法之一。它是基于贝叶斯定义和特征条件独立假设的分类器方法。由于朴素贝叶斯法基于贝叶斯公式计算得到,有着坚实的数学基础,以及稳定的分类效率。NB模型所需估计的参数很少,对缺失数据不太敏感,算法也比较简单。当年的垃圾邮件分类都是基于朴素贝叶斯分类器识别的。

什么是条件概率,我们从一个摸球的例子来理解。我们有两个桶:灰色桶和绿色桶,一共有7个小球,4个蓝色3个紫色,分布如下图:

Image

从这7个球中,随机选择1个球是紫色的概率p是多少?选择过程如下:

  1. 先选择桶
  2. 再从选择的桶中选择一个球

 

𝑝(球=紫色)=𝑝(选择灰桶)⋅𝑝(从灰桶中选择紫色)+𝑝(选择绿桶)⋅𝑝(从绿桶中选择紫色)=12⋅24+12⋅13p(球=紫色)=p(选择灰桶)⋅p(从灰桶中选择紫色)+p(选择绿桶)⋅p(从绿桶中选择紫色)=12⋅24+12⋅13

上述我们选择小球的过程就是条件概率的过程,在选择桶的颜色的情况下是紫色的概率,另一种计算条件概率的方法是贝叶斯准则。

贝叶斯公式是英国数学家提出的一个数据公式:

 

𝑝(𝐴|𝐵)=𝑝(𝐴,𝐵)𝑝(𝐵)=𝑝(𝐵|𝐴)⋅𝑝(𝐴)∑𝑎∈ℱ𝐴𝑝(𝐵|𝑎)⋅𝑝(𝑎)p(A|B)=p(A,B)p(B)=p(B|A)⋅p(A)∑a∈ℱAp(B|a)⋅p(a)

p(A,B):表示事件A和事件B同时发生的概率。

p(B):表示事件B发生的概率,叫做先验概率;p(A):表示事件A发生的概率。

p(A|B):表示当事件B发生的条件下,事件A发生的概率叫做后验概率。

p(B|A):表示当事件A发生的条件下,事件B发生的概率。

我们用一句话理解贝叶斯:世间很多事都存在某种联系,假设事件A和事件B。人们常常使用已经发生的某个事件去推断我们想要知道的之间的概率。 例如,医生在确诊的时候,会根据病人的舌苔、心跳等来判断病人得了什么病。对病人来说,只会关注得了什么病,医生会通道已经发生的事件来 确诊具体的情况。这里就用到了贝叶斯思想,A是已经发生的病人症状,在A发生的条件下是B_i的概率。

我们知道贝叶斯法一定要计算两个概率:条件概率:𝑃(𝑋(𝑖)=𝑥(𝑖)|𝑌=𝑐𝑘)P(X(i)=x(i)|Y=ck)和类目𝑐𝑘ck的先验概率:𝑃(𝑌=𝑐𝑘)P(Y=ck)。

对于离散特征:

𝑃(𝑋(𝑗)=𝑥(𝑗)|𝑌=𝑐𝑘)=∑𝑁𝑖=1𝐼(𝑥𝑗𝑖=𝑎𝑗𝑙,𝑦𝑖=𝑐𝑘)+𝛼∑𝑁𝑖=1𝐼(𝑦𝑖=𝑐𝑘)+𝑆𝑗𝛼

我们可以看出就是对每一个变量的多加了一个频数alpha。当alphaλ=0时,就是极大似然估计。通常取值alpha=1,这就是拉普拉斯平滑(Laplace smoothing),这有叫做贝叶斯估计,主要是因为如果使用极大似然估计,如果某个特征值在训练数据中没有出现,这时候会出现概率为0的情况,导致整个估计都为0,因为引入贝叶斯估计。

其中:

𝑆𝑗Sj:表示第j个特征的个数。

𝑥𝑗𝑖xij:表示第i个样本的第j维元素。

𝑦𝑖yi:第i个样本的label。

 

1.2朴素贝叶斯算法

朴素贝叶斯法 = 贝叶斯定理 + 特征条件独立。

输入𝑋∈𝑅𝑛X∈Rn空间是n维向量集合,输出空间𝑦={𝑐1,𝑐2,...,𝑐𝐾}y={c1,c2,...,cK}. 所有的X和y都是对应空间上的随机变量. 𝑃(𝑋,𝑌)P(X,Y)是X和Y的联合概率分别. 训练数据集(由𝑃(𝑋,𝑌)P(X,Y)独立同分布产生):

𝑇={(𝑥1,𝑦1),(𝑥2,𝑦2),...,(𝑥𝑁,𝑦𝑁)}T={(x1,y1),(x2,y2),...,(xN,yN)}

计算测试数据x的列表,我们需要依次计算𝑃(𝑌=𝑐𝑘|𝑋=𝑥)P(Y=ck|X=x),取概率最大的值,就是x对应的分类。

𝑃(𝑌=𝑐𝑘|𝑋=𝑥)P(Y=ck|X=x)我们一般这样解释,当给定(𝑋=𝑥)(X=x)的条件下,𝑌=𝑐𝑘Y=ck的概率,这就是条件概率. 这就简单了,我们只需要每个的x,计算其对应的𝑐𝑘,𝑘∈[1,2,...,𝐾]ck,k∈[1,2,...,K]的概率,选择最大的概率作为这个x的类别进行了.

通过贝叶斯公式进行变形,得到预测的概率计算公式:

我们只需要计算以下两个概率即可,又由于朴素贝叶斯假设条件独立,我们可以单独计算每个特征的条件概率:𝑃(𝑋(𝑖)=𝑥(𝑖)|𝑌=𝑐𝑘)P(X(i)=x(i)|Y=ck)和类目𝑐𝑘ck的先验概率:𝑃(𝑌=𝑐𝑘)P(Y=ck)。为了更好的理解这个公式,看下图解释:

其中:

 

当涉及到多个条件时,朴素贝叶斯有一个提前的假设,我们称之为 条件独立性假设(或者 简单假设:Naive):公式如下

𝑃(𝐴,𝐵|𝑌)=𝑃(𝐴|𝑌)⋅𝑃(𝐵|𝑌)P(A,B|Y)=P(A|Y)⋅P(B|Y)

这个公式是朴素贝叶斯的基础假设,即各个条件概率是相互独立的,A不影响B,B不影响A。 而对这里来说,假设𝑋=[𝑥1,𝑥2,...,𝑥𝑛]

由此原式可以等价为:

我们为了选择后验概率最大的结果,进行概率的比较,由于分母一致,这里直接去掉分母,得到最后的计算公式。

 

𝑦=𝑎𝑟𝑔𝑚𝑎𝑥𝑐𝑘𝑃(𝑌=𝑐𝑘)∏𝑗𝑃(𝑋(𝑗)=𝑥(𝑗)|𝑌=𝑐𝑘)y=argmaxckP(Y=ck)∏jP(X(j)=x(j)|Y=ck)

我们来看一个实例,更好的理解贝叶斯的计算过程,根据天气和是否是周末预测一个人是否会出门。

index𝑋1:X1:天气的好坏𝑋2:X2:是否周末𝑌:Y:是否出门
1出门
2出门
3不出门
4出门
5不好出门
6不好不出门

根据上述数据,为了更好的理解计算过程,我们给出几个计算公式:

1.3 朴素贝叶斯的优缺点

优点: 朴素贝叶斯算法主要基于经典的贝叶斯公式进行推倒,具有很好的数学原理。而且在数据量很小的时候表现良好,数据量很大的时候也可以进行增量计算。由于朴素贝叶斯使用先验概率估计后验概率具有很好的模型的可解释性。

缺点: 朴素贝叶斯模型与其他分类方法相比具有最小的理论误差率。但是实际上并非总是如此,这是因为朴素贝叶斯模型给定输出类别的情况下,假设属性之间相互独立,这个假设在实际应用中往往是不成立的,在属性个数比较多或者属性之间相关性较大时,分类效果不好。而在属性相关性较小时,朴素贝叶斯性能最为良好。对于这一点,有半朴素贝叶斯之类的算法通过考虑部分关联性适度改进,例如为了计算量不至于太大,我们假定每个属性只依赖另外的一个。解决特征之间的相关性,我们还可以使用数据降维(PCA)的方法,去除特征相关性,再进行朴素贝叶斯计算。

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值