朴素贝叶斯(naive bayes)

朴素贝叶斯是经典的机器学习算法之一,也是为数不多的基于概率论的分类算法。朴素贝叶斯多用于文本分类,比如垃圾邮件过滤。

1.算法思想——基于概率的预测

逻辑回归通过拟合曲线(或者学习超平面)实现分类,决策树通过寻找最佳划分特征进而学习样本路径实现分类,支持向量机通过寻找分类超平面进而最大化类别间隔实现分类。相比之下,朴素贝叶斯独辟蹊径,通过考虑特征概率来预测分类。举个可能不太恰当的例子:眼前有100个人,好人和坏人个数差不多,现在要用他们来训练一个“坏蛋识别器”。怎么办呢?咱们不管他们干过啥事,只看他们长啥样(这确实不是个恰当的例子)。也就是说,我们在区分好坏人时,只考虑他们的样貌特征。比如说“笑”这个特征,它的取值可能是“甜美的笑”、“儒雅的笑”、“憨厚的笑”、“没心没肺的笑”、“微微一笑”,等等——这都是“好人的笑”;也可以是“阴险的笑”、“不屑的笑”、“色眯眯的笑”、“任我行似的笑”、“冷笑”、“皮笑肉不笑”,等等——这很可能是“坏人的笑”。单就“笑”这个特征来说,一个好人发出“好人的笑”的概率更大,而且频率更高;而坏人则发出“坏人的笑”的概率更大,频率更高(电视上总能看见作奸犯科的人在暗地里发出挨千刀的笑)。当然,好人也有发出坏笑的时候(那种偶像剧里面男猪脚“坏坏的笑”),坏人也有发出好人的笑的时候(想想《不要和陌生人说话》里面的冯远征),这些就都是噪声了。

除了笑之外,这里可用的特征还有纹身,性别等可以考虑。朴素贝叶斯把特征概率化,构成一个“人的样貌向量”以及对应的“好人/坏人标签”,训练出一个标准的“好人模型”和“坏人模型”,这些模型都是各个样貌特征概率构成的。这样,当一个品行未知的人来以后,我们迅速获取样貌特征向量,分布输入“好人模型”和“坏人模型”,得到两个概率值。如果“坏人模型”输出的概率值大一些,那这个人很有可能就是个大坏蛋了。

决策树是怎么办的呢?决策树可能先看性别,因为它发现给定的带标签人群里面男的坏蛋特别多,这个特征眼下最能区分坏蛋和好人,然后按性别把一拨人分成两拨;接着看“笑”这个特征,因为它是接下来最有区分度的特征,然后把两拨人分成四拨;接下来看纹身,,,,最后发现好人要么在田里种地,要么在山上砍柴,要么在学堂读书。而坏人呢,要么在大街上溜达,要么在地下买卖白粉,要么在海里当海盗。这些个有次序的特征就像路上的一个个垫脚石(树的节点)一样,构成通往不同地方的路径(树的枝丫),这些不同路径的目的地(叶子)就是一个类别容器,包含了一类人。一个品行未知的人来了,按照其样貌特征顺序及其对应的特征值,不断走啊走,最后走到了农田或山上,那就是好人;走到了地下或大海,那就是大坏蛋。(这是个看脸的例子,但重点不是“脸”,是“例子”,这真的只是个没有任何偏见的例子)。可以看出来,两种分类模型的原理是很不相同。

2.理论基础——条件概率,词集模型、词袋模型

  • 条件概率:朴素贝叶斯最核心的部分是贝叶斯法则,而贝叶斯法则的基石是条件概率。贝叶斯法则如下:
这里的C表示类别,输入待判断数据,式子给出要求解的某一类的概率。我们的最终目的是比较各类别的概率值大小,
而上面式子的分母是不变的,因此只要计算分子即可。 仍以“坏蛋识别器”为例。我们用C0表示好人,C1表示坏人,
现在100个人中有60个好人,则P(C0)=0.6,那么P( x y |C0)怎么求呢?注意,这里的( x y )是多维的, 因为有
60个好人,每个人又有“性别”、“笑”、“纹身”等多个特征,这些构成 X y 是标签向量,有60个0和40个1构成
这里我们假设 X 的特征之间是独立的,互相不影响,这就是朴 素贝叶斯中“朴素”的由来。在假设特征间独立的假设下
,很容易 P x y |C0=P(x0,y0|C0)P(x1,y1|C0)...P(xn,yn|C0)。然而,P(xn,yn|C0),n=0,1,
...,n 如何求呢?有两种情况,涉及到词集模型和词袋模型。 接下来我们举个更合适的例子,那就是文本分类。我们
的训练集由正常的文档和侮辱性的文档组成,能反映侮辱性文档的是侮辱性词汇的出现与否以及出现频率。
  • 词集模型:对于给定文档,只统计某个侮辱性词汇(准确说是词条)是否在本文档出现
  • 词袋模型:对于给定文档,统计某个侮辱性词汇在本文当中出现的频率,除此之外,往往还需要剔除重要性极低的高频词和停用词。因此,词袋模型更精炼,也更有效。
需要解释的是,为了高效计算,求解Pxy|C0)时是向量化操作的,因此不会一个个的求解P(xn,yn|C0)。

3.数据预处理——向量化

向量化、矩阵化操作是机器学习的追求。从数学表达式上看,向量化、矩阵化表示更加简洁;在实际操作中,矩阵化(向量是特殊的矩阵)更高效。仍然以侮辱性文档识别为例:

首先,我们需要一张词典,该词典囊括了训练文档集中的所有必要词汇(无用高频词和停用词除外),还需要把每个文档剔除高频词和停用词;

其次,根据词典向量化每个处理后的文档。具体的,每个文档都定义为词典大小,分别遍历某类(侮辱性和非侮辱性)文档中的每个词汇并统计出现次数;最后,得到一个个跟词典一样大小的向量,这些向量有一个个整数组成,每个整数代表了词典上一个对应位置的词在当下文档中的出现频率。

最后,统计每一类处理过的文档中词汇总个数,某一个文档的词频向量除以相应类别的词汇总个数,即得到相应的条件概率,如Pxy|C0)。有了P(xy|C0)和P(C0),P(C0|x,y)就得到了,用完全一样的方法可以获得

P(C1|x,y)。比较它们的大小,即可知道某人是不是大坏蛋,某篇文档是不是侮辱性文档了。

4.Python代码解读

[python]  view plain  copy
  1. def loadDataSet():  
  2.     postingList=[['my','dog','has','flea','problem','help','please'],  
  3.                  ['maybe','not','take','him','to','dog','park','stupid'],  
  4.                  ['my','dalmation','is','so','cute','I','love','him'],  
  5.                  ['stop','posting','ate','my','steak','how','to','stop','him'],  
  6.                  ['mr','licks','ate','my','steak','how','to','stop','him'],  
  7.                  ['quit','buying','worthless','dog','food','stupid']]  
  8.     classVec=[0,1,0,1,0,1]  
  9.     return postingList,classVec  
  10. #定义一个简单的文本数据集,由6个简单的文本以及对应的标签构成。1表示侮辱性文档,0表示正常文档。  
  11. def createVocabList(dataSet):  
  12.     vocabSet=set([])  
  13.     for document in dataSet:  
  14.         vocabSet=vocabSet|set(document)  
  15.     return list(vocabSet)  
  16. def setOfWords2Vec(vocabList,inputSet):  
  17.     returnVec=[0]*len(vocabList)               #每个文档的大小与词典保持一致,此时returnVec是空表  
  18.     for word in inputSet:  
  19.         if word in vocabList:  
  20.             returnVec[vocabList.index(word)]=1 #当前文档中有某个词条,则根据词典获取其位置并赋值1  
  21.         else:print "the word :%s is not in my vocabulary" %word  
  22.     return returnVec          
  23. def bagOfWords2Vec(vocabList,inputSet):  
  24.     returnVec=[0]*len(vocabList)  
  25.     for word in inputSet:  
  26.         if word in vocabList:  
  27.             returnVec[vocabList.index(word)]+=1 # 与词集模型的唯一区别就表现在这里  
  28.         else:print "the word :%s is not in my vocabulary" %word  
  29.     return returnVec  
  30. #### 文档向量化,这里是词袋模型,不知关心某个词条出现与否,还考虑该词条在本文档中的出现频率  
  31.   
  32. def trainNB(trainMatrix,trainCategory):                                          
  33.     numTrainDocs=len(trainMatrix)       
  34.     numWords=len(trainMatrix[0])          
  35.     pAbusive=sum(trainCategory)/float(numTrainDocs) #统计侮辱性文档的总个数,然后除以总文档个数    
  36.     #p0Num=zeros(numWords);p1Num=zeros(numWords)    # 把属于同一类的文本向量加起来  
  37.     #p0Denom=0.0;p1Denom=0.0  
  38.     p0Num=ones(numWords);p1Num=ones(numWords)  
  39.     p0Denom=2.0;p1Denom=2.0  
  40.     for i in range(numTrainDocs):  
  41.         if trainCategory[i]==1:   
  42.             p1Num+=trainMatrix[i]#把属于同一类的文本向量相加,实质是统计某个词条在该类文本中出现频率  
  43.             p1Denom+=sum(trainMatrix[i]) #把侮辱性文档向量的所有元素加起来  
  44.         else:  
  45.             p0Num+=trainMatrix[i]  
  46.             p0Denom+=sum(trainMatrix[i])   
  47.     #p1Vec=p1Num/float(p1Denom)   
  48.     #p0Vec=p0Num/float(p0Denom)  
  49.     p1Vec=log(p1Num/p1Denom) #统计词典中所有词条在侮辱性文档中出现的概率  
  50.     p0Vec=log(p0Num/p0Denom) #统计词典中所有词条在正常文档中出现的概率  
  51.     return pAbusive,p1Vec,p0Vec  
  52. #### 训练生成朴素贝叶斯模型,实质上相当于是计算P(x,y|Ci)P(Ci)的权重。  
  53. ### 注意:被注释掉的代码代表不太好的初始化方式,在那种情况下某些词条的概率值可能会非常非常小,甚至约  
  54. ###等于0,那么在不同词条的概率在相乘时结果就近似于0  
  55. def classifyNB(vec2classify,p0Vec,p1Vec,pClass1):  # 参数1是测试文档向量,参数2和参数3是词条在各个  
  56.                                                     #类别中出现的概率,参数4是P(C1)  
  57.     p1=sum(vec2classify*p1Vec)+log(pClass1)   # 这里没有直接计算P(x,y|C1)P(C1),而是取其对数  
  58.                                                  #这样做也是防止概率之积太小,以至于为0  
  59.     p0=sum(vec2classify*p0Vec)+log(1.0-pClass1) #取对数后虽然P(C1|x,y)和P(C0|x,y)的值变了,但是  
  60.                                                  #不影响它们的大小关系。  
  61.     if p1>p0:  
  62.         return 1  
  63.     else:  
  64.         return 0  


5.总结

  • 不同于其它分类器,朴素贝叶斯是一种基于概率理论的分类算法;
  • 特征之间的条件独立性假设,显然这种假设显得“粗鲁”而不符合实际,这也是名称中“朴素”的由来。然而事实证明,朴素贝叶斯在有些领域很有用,比如垃圾邮件过滤;
  • 在具体的算法实施中,要考虑很多实际问题。比如因为“下溢”问题,需要对概率乘积取对数;再比如词集模型和词袋模型,还有停用词和无意义的高频词的剔除,以及大量的数据预处理问题,等等;
  • 总体上来说,朴素贝叶斯原理和实现都比较简单,学习和预测的效率都很高,是一种经典而常用的分类算法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值