2020-12-20

机器学习:模拟离散数据集–贝叶斯分类学习体会笔记

朴素贝叶斯算法
朴素贝叶斯法 = 贝叶斯定理 + 特征条件独立。

输入 ∈ X∈Rn空间是n维向量集合,输出空间 ={ 1, 2,…, }y={c1,c2,…,cK}. 所有的X和y都是对应空间上的随机变量. ( , )P(X,Y)是X和Y的联合概率分别. 训练数据集(由 ( , )P(X,Y)独立同分布产生):

={( 1, 1),( 2, 2),…,( , )}

计算测试数据x的列表,我们需要依次计算 ( = | = )P(Y=ck|X=x),取概率最大的值,就是x对应的分类。

( = | = )P(Y=ck|X=x)我们一般这样解释,当给定( = )(X=x)的条件下, = Y=ck的概率,这就是条件概率. 这就简单了,我们只需要每个的x,计算其对应的 , ∈[1,2,…, ]ck,k∈[1,2,…,K]的概率,选择最大的概率作为这个x的类别进行了.

通过贝叶斯公式进行变形,得到预测的概率计算公式:

( = | = )= ( = | = ) ( = )∑ ( = | = ) ( = )P(Y=ck|X=x)=P(X=x|Y=ck)P(Y=ck)∑kP(X=x|Y=ck)P(Y=ck)

我们只需要计算以下两个概率即可,又由于朴素贝叶斯假设条件独立,我们可以单独计算每个特征的条件概率: ( ( )= ( )| = )P(X(i)=x(i)|Y=ck)和类目 ck的先验概率: ( = )P(Y=ck)。为了更好的理解这个公式,看下图解释:

其中:

( = )=∑ =1 ( = ) , =1,2,…, P(Y=ck)=∑i=1NI(yi=ck)N,k=1,2,…,K

当涉及到多个条件时,朴素贝叶斯有一个提前的假设,我们称之为 条件独立性假设(或者 简单假设:Naive):公式如下

( , | )= ( | )⋅ ( | )P(A,B|Y)=P(A|Y)⋅P(B|Y)

这个公式是朴素贝叶斯的基础假设,即各个条件概率是相互独立的,A不影响B,B不影响A。 而对这里来说,假设 =[ 1, 2,…, ]X=[x1,x2,…,xn]

( = | = )= ( (1)= (1), (2)= (2),…, ( )= ( )| = )=∏ =1 ( | )P(X=x|Y=ck)=P(X(1)=x(1),X(2)=x(2),…,X(n)=x(n)|Y=ck)=∏i=1nP(xi|y)

由此原式可以等价为:

( = | = )=∏ =1 ( | = ) ( = )∑ ∏ =1 ( | = ) ( = )P(Y=ck|X=x)=∏i=1nP(xi|Y=ck)P(Y=ck)∑k∏i=1nP(xi|Y=ck)P(Y=ck)

我们为了选择后验概率最大的结果,进行概率的比较,由于分母一致,这里直接去掉分母,得到最后的计算公式。

= ( = )∏ ( ( )= ( )| = )

这是一个实例,更好的理解贝叶斯的计算过程,根据天气和是否是周末预测一个人是否会出门。

在这里插入图片描述

根据上述数据,为了更好的理解计算过程,我们给出几个计算公式:
a. 当出门的条件下,X_1是天气不好的概率:
( 1=不好| =出门)= ( 1=不好, =出门) ( =出门)=14p(X1=不好|Y=出门)=p(X1=不好,Y=出门)p(Y=出门)=14

b. 出门的概率
( =出门)=46p(Y=出门)=46

c. X_1天气不好的概率、
( 1=不好)=26p(X1=不好)=26

d. 在X_1天气不好的情况下,出门的概率:
( =出门| 1=不好)= ( 1=不好| =出门)⋅ ( =出门) ( =不好)=14⋅4626=12p(Y=出门|X1=不好)=p(X1=不好|Y=出门)⋅p(Y=出门)p(X=不好)=14⋅4626=12

f. 在X_1天气不好的情况下,不出门的概率:
( =出门| 1=不好)=1− ( =不出门| 1=不好)=1−12=12p(Y=出门|X1=不好)=1−p(Y=不出门|X1=不好)=1−12=12

朴素贝叶斯的优缺点
优点: 朴素贝叶斯算法主要基于经典的贝叶斯公式进行推倒,具有很好的数学原理。而且在数据量很小的时候表现良好,数据量很大的时候也可以进行增量计算。由于朴素贝叶斯使用先验概率估计后验概率具有很好的模型的可解释性。

缺点: 朴素贝叶斯模型与其他分类方法相比具有最小的理论误差率。但是实际上并非总是如此,这是因为朴素贝叶斯模型给定输出类别的情况下,假设属性之间相互独立,这个假设在实际应用中往往是不成立的,在属性个数比较多或者属性之间相关性较大时,分类效果不好。而在属性相关性较小时,朴素贝叶斯性能最为良好。对于这一点,有半朴素贝叶斯之类的算法通过考虑部分关联性适度改进,例如为了计算量不至于太大,我们假定每个属性只依赖另外的一个。解决特征之间的相关性,我们还可以使用数据降维(PCA)的方法,去除特征相关性,再进行朴素贝叶斯计算。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值