朴素贝叶斯(naive bayes)

朴素贝叶斯(naive bayes)

标签: Python 机器学习

主要参考资料:《机器学习实战》《统计学习方法》


1.朴素贝叶斯分类原理

朴素贝叶斯法是基于贝叶斯定理特征条件独立假设(称为朴素的原因)的分类方法。先看看维基百科中贝叶斯定理的描述:

贝叶斯定理(维基百科)
通常,事件A在事件B(发生)的条件下的概率,与事件B在事件A的条件下的概率是不一样的;然而,这两者是有确定的关系,贝叶斯定理就是这种关系的陈述。
公式描述如下:

P(A|B)=P(B|A)P(A)P(B)

其中 P(A|B) 是在B发生的情况下A发生的可能性。

在机器学习中,常常用事件A表示属于某个类别,事件B表示特征条件的集合。以下图作为例子讲解:

图中共有两类点,记为 c1 c2 p(ci|x,y) 表示点 (x,y) 为类 ci 的概率,那么根据贝叶斯公式,可以进行如下分类:

  • 如果 P(c1|x,y)>P(c2|x,y) ,则断定该点属于 c1
  • 如果 P(c1|x,y)<P(c2|x,y) ,则断定该点属于 c2

如果用 P(x,y|ci) 表示类 ci 中点 (x,y) 的概率(分布),则:

P(ci|x,y)=P(x,y|ci)P(ci)P(x,y)

又由于假设了特征条件独立,即 x y之间没有任何的关系,则:
P(ci|x,y)=P(x|ci)P(y|ci)P(ci)P(x,y)

分母相同,只需要比较分子即可。朴素贝叶斯算法训练的目的就是得到训练集中 P(x|ci)P(y|ci)P(ci) ,即 不同独立特征的条件概率

2.朴素贝叶斯实现

2.1准备数据

由于是简单的示例,直接创建训练集和类标签向量:

# 训练集:留言板的中的留言
def create_data_set(): 
    postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],
                 ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],
                 ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
                 ['stop', 'posting', 'stupid', 'worthless', 'garbage'],
                 ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
                 ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
    classVec = [0,1,0,1,0,1]    #1表示侮辱性语句, 0表示文明用语
    return postingList,classVec

当前数据集中的数据是单词,我们要根据单词出现的频率估计出条件概率,就必须知道每个单词出现的频数,而统计单词频数,首先得创建单词表,即所有单词只出现一次的列表(集合):

#创建单词表
def create_vocablist(dataSet): 
    vocabSet = set([])  #create empty set
    for document in dataSet:
        vocabSet = vocabSet | set(document) #取并集
    return list(vocabSet)

有了单词表就可以将语句转化为频率矢量,首先将单词表所有单词的频率初始化为0,然后遍历每一条语句,将出现的单词频率置为1(0表示未出现该单词,1表示出现该单词):

#将输入语句转化为单词频率向量,表示单词表中的哪些单词出现过
def setOfWords2Vec(vocabList, inputSet):
    returnVec = [0]*len(vocabList)
    for word in inputSet:
        if word in vocabList:
            returnVec[vocabList.index(word)] = 1
        else: print "the word: %s is not in my Vocabulary!" % word
    return returnVec

利用上面生成的数据集生成一个单词表,结果如下:

将语句”I buying cute dog”转化为向量如下:

2.2训练算法

先看看训练的目标参数: P(w1|ci),P(w2|ci),...,P(wm|ci)P(ci) ,其中 wi 表示某一个单词,因为一条语句是由若干单词组成,且我们假设每个单词出现的事件是独立的,故类 ci 有语句 w 的概率P(w⃗ |ci)=P(w1|ci),P(w2|ci),...,P(wm|ci)

训练函数传入的参数有两个,分别是语句集合转化的单词表向量集合和类标签向量。首先根据类标签列表可以计算出侮辱性语句和非侮辱性语句的频率,然后再计算各个特征的条件概率。

计算特征的条件概率时使用了numpy中的矢量运算,极大的简化了程序的编写。先定义2个空的单词表矢量,用来统计侮辱性单词和非侮辱性单词的频数,再定义2个浮点型变量,用来统计侮辱性单词和非侮辱性单词的总数。遍历单词表向量集合,根据每个向量的类别,统计侮辱性和非侮辱性单词的频数与总数。最后,将频数除以总数,就可以得到侮辱性或非侮辱性条件下某单词的出现的概率。

#朴素贝叶斯训练函数,输入为所有文档的单词频率向量集合,类标签向量
def trainNB(trainMatrix,trainCategory):
    numTrainDocs = len(trainMatrix) #文档数量
    numWords = len(trainMatrix[0]) #单词表长度
    pAbusive = sum(trainCategory)/float(numTrainDocs) #侮辱性词语的频率
    p0Num = zeros(numWords); p1Num = zeros(numWords) #分子初始化为0
    p0Denom = 0.0; p1Denom = 0.0                   #分母初始化为0
    for i in range(numTrainDocs):
        if trainCategory[i] == 1: #如果是侮辱性语句
            p1Num += trainMatrix[i] #矢量相加,将侮辱性语句中出现的词语频率全部加1
            p1Denom += sum(trainMatrix[i]) #屈辱性词语的总量也增加
        else:
            p0Num += trainMatrix[i]
            p0Denom += sum(trainMatrix[i])
    p1Vect = p1Num/p1Denom #对每个元素做除法
    p0Vect = p0Num/p0Denom
    return p0Vect,p1Vect,pAbusive #返回所有词语非侮辱性词语中的频率,所有词语在侮辱性词语中的频率,侮辱性语句的频率

但是这段程序有两个问题,问题一为可能发生下溢出,问题二为某语句的某个单词在侮辱性或非侮辱性集合中的频率为0,这会导致连乘的积为0.

首先解决问题一:
频率都是很小的小数,这些小数连乘的结果最终也是非常小非常小的小数,在计算机中会发生下溢出或者为0,总之都不是正确的结果。较为常见的解决方法是使用对数,将连乘变为连加。相应的程序修改如下:

p1Vect = log(p1Num/p1Denom) #变为对数,防止下溢出;对每个元素做除法
p0Vect = log(p0Num/p0Denom)

然后解决问题二:
可以通过分子全部初始化为1,分母初始化为2解决该问题,这种方法在统计学中叫做贝叶斯估计
条件概率 P(wj|ci) 的极大似然估计为:

P(wj|ci)=I(wj,ci)I(ci)

我们原先就是按照上面的公式计算 P(wj|ci) ,但是该公式可能出现所要估计的概率值为0的情况,所以给分子分母增加一项,称为 条件概率的贝叶斯估计,具体如下:
P(wj|ci)=I(wj,ci)+λI(ci)+Sjλ

其中 λ>0 Sj 表示 wj 可以取得不同值的个数。当 λ=1 时,称为 拉普拉斯平滑

在我们所讨论的问题中, wj 表示某个单词是否出现,只有0和1两个值,故 Sj=2 ,所以初始化时分子为1,分母为2,再根据遍历结果增加分子和分母的值。相应的程序修改如下:

p0Num = ones(numWords); p1Num = ones(numWords) #分子初始化为1
p0Denom = 2.0; p1Denom = 2.0                   #分母初始化为2

2.3测试算法

根据以下准则编写分类函数:

  • 如果 P(c0|x,y)>P(c1|x,y) ,则断定为非侮辱性语句
  • 如果 P(c0|x,y)<P(c1|x,y) ,则断定为侮辱性语句
def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):
    p1 = sum(vec2Classify * p1Vec) + log(pClass1) #矢量相乘求出概率,log相加
    p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1)
    if p1 > p0:
        return 1
    else: 
        return 0

然后编写测试函数,进行测试,需要注意的是python中的列表不提供矢量运算,要想进行矢量运算,就要将列表转化为numpy中的array或者mat

def testingNB():
    listOPosts,listClasses = create_data_set()
    myVocabList = create_vocablist(listOPosts)
    trainMat=[]
    for postinDoc in listOPosts:
        trainMat.append(setOfWords2Vec(myVocabList, postinDoc))
    p0V,p1V,pAb = trainNB(array(trainMat),array(listClasses))
    testEntry = ['love', 'my', 'dalmation']
    thisDoc = array(setOfWords2Vec(myVocabList, testEntry))
    print testEntry,'classified as: ',classifyNB(thisDoc,p0V,p1V,pAb)
    testEntry = ['stupid', 'garbage']
    thisDoc = array(setOfWords2Vec(myVocabList, testEntry))
    print testEntry,'classified as: ',classifyNB(thisDoc,p0V,p1V,pAb)

运行结果如下:

3.总结

  • 源码在我的GitHub中,MachineLearningAction仓库里面有常见的机器学习算法处理常见数据集的各种实例,欢迎访问
  • 朴素贝叶斯算法核心就两个:
    • 贝叶斯定理
    • 朴素:假设各个特征之间是独立的
  • 只要牢记朴素贝叶斯的核心以及公式,那么编写程序就比较容易
  • 朴素贝叶斯常常用于文本分类,然而该方法对于英文等语言很好用,对中文就不是很好,因为中文是字组成词,对于长句子要进行“分词”操作,比如“黄金”和“金黄”的字完全一样,但是意思截然不同
  • 朴素贝叶斯有很多的改进方法,比如说用词袋模型代替词集模型,移除停用词
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值