基于概率论的分类方法--朴素贝叶斯

  • 朴素贝叶斯法是基于贝叶斯定理特征条件独立假设(用于分类的特征在类确定的情况下是条件独立的)的分类方法
  • 对于给定的训练数据集,首先基于特征条件独立假设 学习输入、输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理计算出后验概率最大的y(核心:高概率),并输出。
  • 朴素贝叶斯:学习、分类、贝叶斯法的参数估计算法
  • 朴素贝叶斯算法的应用:
    1、文档分类

  • 准备数据:从文本中构建词向量–构建一个不重复的包含所有文档出现的所有词汇的词汇列表,输出文档向量,如下例:该向量的值为0/1,表示文档中的词是否在词汇表中出现。(使用词袋模型,可以记录词汇出现的次数)

  • 训练算法:从词向量计算概率–使用贝叶斯定理计算词条在每个类别下出现的概率,贝叶斯准则
    伪代码:
    计算每个类别中的文档数目
    对每篇训练文档:
    对每个类别:
    如果词条出现在文档中–>增加该词条的计数值
    增加所有词条的计数值
    对每个类别:
    对每个词条:
    该词条的数目/总词条的数目–>得到条件概率
    返回每个类别的条件概率

  • 测试算法:要根据现实情况修改分类器
    朴素贝叶斯的应用:

  • 电子邮件垃圾过滤
    1、读取50封邮件(25封正常的,25封垃圾邮件),将每一封邮件都进行词划分,将这些词放入一个WordList列表中。在用extend()函数生成一份不含重复词汇的词汇列表。
    2、文本转换为向量
    3、在50封邮件中选10封作为测试集
    4、用训练集训练算法生成框架。
    5、用测试集测试,打印错误率。
  • 从个人广告中获取区域倾向
    1、输入文本(RSS源)
    2、划分文本
    3、去掉出现频率最高的30个词(从词汇表中)
    4、构建测试集(随机选取20个,并将这20条数据从训练集中移除)
    5、训练:将训练样本转换为向量,得到训练矩阵和类别,返回概率
    6、测试:将测试样本转换为向量,用训练得到的模型进行测试分类。
    7、输出错误率,返回概率
  • 分析数据:显示地域相关的用词
    排序,输出出现频率高的用词
#!/usr/bin/python
# -*- coding: UTF-8 -*-
#http://blog.csdn.net/u011475210/article/details/77926012###;参考代码
from numpy import *

#词表到向量的转换函数
def loadDataSet():#创建实验样本
    postingList = [['my','dog','has','flea','problems','help','please'],\
                   ['maybe','not','take','him','to','dog','park','stupid'],\
                   ['my','dalmation','is','so','cute','I','love','him'],\
                   ['stop','posting','stupid','worthless','garbage'],\
                   ['mr','licks','ate','my','steak','how','to','stop','him'],\
                   ['quit','buying','worthless','dog','food','stupid']]
    classVec = [0,1,0,1,0,1]#1代表有侮辱性词汇,0代表没有
    return postingList,classVec

def createVocabList(dataSet):#得到一个不重复词的列表--词汇表
    vocabSet = set([])#创建一个空集
    for document in dataSet:
        vocabSet = vocabSet|set(document)#得到一个来自于文档不重复的词条集合
    return list(vocabSet)

def setOfWord2Vec(vocabList,inputSet):#输入参数:词汇表、文档
    returnVec = [0]*len(vocabList)#创建一个和词汇表等长的向量
    for word in inputSet:#遍历文档
        if word in vocabList:#该词汇在词汇表中遍历
            returnVec[vocabList.index(word)]=1#在词汇表中出现过,该词汇标记为1
        else:print('the word:%s is not my vocabulary!'%word)
    return returnVec#返回文档向量
#listOPosts,listClasses=loadDataSet()
#myVocabList=createVocabList(listOPosts)
#print(myVocabList)
#print(setOfWord2Vec(myVocabList,listOPosts[0]))
#print(setOfWord2Vec(myVocabList,listOPosts[3]))


#朴素贝叶斯分类器训练函数
def trainNB0(trainMatrix,trainCategory):#输入为文档矩阵、文档类别标签组成的向量
    numTrainDocs = len(trainMatrix)#计算训练的文档数目
    numWords = len(trainMatrix[0])#计算每篇文档的词条数
    pAbusive = sum(trainCategory)/float(numTrainDocs)#文档属于侮辱类的概率
    p0Num = ones(numWords)#创建空矩阵,有侮辱性
    p1Num = ones(numWords)
    p0Denom = 2#分母初始化为2,防止有一个为0即结果为0
    p1Denom = 2
    for i in range(numTrainDocs):#遍历
        if trainCategory[i] == 1:#统计属于侮辱类的条件概率所需的数据,即P(w0|1),P(w1|1),P(w2|1)···
            p1Num+=trainMatrix[i]
            p1Denom +=sum(trainMatrix[i])
        else:
            p0Num +=trainMatrix[i]
            p0Denom +=sum(trainMatrix[i])
    p1Vec = log(p1Num/p1Denom)#取自然对数,防止下溢出
    p0Vec = log(p0Num/p0Denom)
    return p0Vec,p1Vec,pAbusive
listOPosts,listClasses=loadDataSet()#创建样本
myVocabList = createVocabList(listOPosts)#
trainMat=[]
for postinDoc in listOPosts:#循环填充
    trainMat.append(setOfWord2Vec(myVocabList,postinDoc))
p0V,p1V,pAb=trainNB0(trainMat,listClasses)#训练
#print(pAb)
#print(p0V)
#print(p1V)

#朴素贝叶斯分类函数
def classifyNB(vec2Classify,p0Vec,p1Vec,pClass1):
    p1 = sum(vec2Classify*p1Vec)+log(pClass1)#对应元素相乘。logA * B = logA + logB,所以这里加上log(pClass1)
    p0 = sum(vec2Classify*p0Vec)+log(1.0-pClass1)
    if p1>p0:
        return 1
    else:
        return 0

#便利函数,封装所有操作
def testingNB():
    listOPosts,listClasses=loadDataSet()
    myVocabList = createVocabList(listOPosts)
    trainMat = []
    for postinDoc in listOPosts:
        trainMat.append(setOfWord2Vec(myVocabList,postinDoc))
    p0V,p1V,pAb=trainNB0(trainMat,listClasses)
    testEntry = ['love','my','dalmation']
    thisDoc = array(setOfWord2Vec(myVocabList,testEntry))
    print(testEntry,'classified as:',classifyNB(thisDoc,p0V,p1V,pAb))
    testEntry = ['stupid','garbage']
    thisDoc = array(setOfWord2Vec(myVocabList,testEntry))
    print(testEntry,'classifier as:',classifyNB(thisDoc,p0V,p1V,pAb))

#testingNB()

def bagOfWords2VecMN(vocabList,inputSet):
    returnVec = [0]*len(vocabList)
    for word in inputSet:
        if word in vocabList:
            returnVec[vocabList.index(word)]+=1
    return returnVec

#使用朴素贝叶斯过滤垃圾邮件
mySent = 'This book is the best book or M.L I have ever laid eyes upon.'
#mySent= mySent.split()
#print(mySet)

#import re
#regEx = re.compile('\\W*')#???
#listOfTokens = regEx.split(mySent)
#print(listOfTokens)
#print([tok.lower() for tok in listOfTokens if len(tok)>0])#将文本统一为小写

#文本解析及完整的垃圾邮件测试函数
def textParse(bigString):#接受大字符串并将解析为字符串列表
    import re
    listOfTokens = re.split(r'\W*',bigString)#\W表示非单词字符,*表示多个或0个
    return [tok.lower() for tok in listOfTokens if len(bigString)>2]#过滤掉小于2的字符,并全部转换成小写

def spamTest():
    docList = []
    classList = []
    fullText = []#初始化列表
    for i in range(1,26):
        wordList = textParse(open('email/spam/%d.txt' % i).read())#切分文本
        docList.append(wordList)#切分后的文本以以原始列表文本加入文档列表,添加的是列表
        fullText.extend(wordList)#切分后的文本直接合并到词汇表,添加的是元素
        classList.append(1)#标签列表更新
        wordList = textParse(open('email/ham/%d.txt' % i).read())
        docList.append(wordList)
        fullText.extend(wordList)
        classList.append(0)
        #以上导入并解析文本文件
    vocabList = createVocabList(docList)#创建一个不重复的向量
    trainingSet = list(range(50))

    testSet = []
    #初始化训练集和测试集
    for i in range(10):#随机构建测试集,随机选取10个Index,从样本从剔除
        randIndex = int(random.uniform(0,len(trainingSet)))
        testSet.append(trainingSet[randIndex])#将选择的样本加入到测试集中
        del(trainingSet[randIndex])#将选中的索引从训练样本中删除
    trainMat=[]
    trainClasses = []
    for docIndex in trainingSet:#遍历训练集
        trainMat.append(setOfWord2Vec(vocabList,docList[docIndex]))#文本转换为矩阵
        trainClasses.append(classList[docIndex])#添加上述文本的对应标签
    p0V,p1V,pSpam =  trainNB0(array(trainMat),array(trainClasses))#贝叶斯训练数据,返回概率
    errorCount = 0
    for docIndex in testSet:#遍历测试集
        wordVector = setOfWord2Vec(vocabList,docList[docIndex])#文本转换为矩阵
        if classifyNB(array(wordVector),p0V,p1V,pSpam)!=classList[docIndex]:#测试样本的分类结果与标签不一致
            errorCount+=1#错误率加1
    print('the error rate is:',float(errorCount)/len(testSet))

#结果验证
#spamTest()


#RSS源分类器及高频词去除函数
def calcMostFreq(vocabList,fullText):#辅助函数,统计词汇表中的词在文本中出现的次数并排序
    import operator
    freqDict={}
    for token in vocabList:
        freqDict[token] = fullText.count(token)
    sortedFreq = sorted(freqDict.items(),key=operator.itemgetter(1),reverse=True)
    return sortedFreq[:30]#返回字典

def localWords(feed1,feed0):#参数是两个RSS源
    import feedparser
    docList=[]
    classList=[]
    fullText=[]
    minLen = min(len(feed1['entries']),len(feed0['entries']))
    for i in range(minLen):
        wordList = textParse(feed1['entries'][i]['summary'])#每次访问一条RSS源
        docList.append(wordList)
        fullText.extend(wordList)
        classList.append(1)#feed1的标签是1
        wordList = textParse(feed0['entries'][i]['summary'])#feed0['entries']包含所有帖子
        docList.append(wordList)
        fullText.extend(wordList)
        classList.append(0)
    vocabList = createVocabList(docList)
    top30Words = calcMostFreq(vocabList, fullText) #从词汇表中去除30个出现频率最高的词
    for pariW in top30Words:
        if pariW[0] in vocabList:vocabList.remove(pariW[0])
    trainingSet=list(range(2*minLen))
    testSet = []
    for i in range(20):
        randIndex = int(random.uniform(0,len(trainingSet)))
        testSet.append(trainingSet[randIndex])
        del(trainingSet[randIndex])
    trainMat = []
    trainClasses = []
    for docIndex in trainingSet:
        trainMat.append(bagOfWords2VecMN(vocabList,docList[docIndex]))
        trainClasses.append(classList[docIndex])
    p0V,p1V,pSpam=trainNB0(trainMat,trainClasses)
    errorCount=0
    for docIndex in testSet:
        wordVector = bagOfWords2VecMN(vocabList,docList[docIndex])
        if classifyNB(array(wordVector),p0V,p1V,pSpam)!=classList[docIndex]:
            errorCount+=1
    print('the error rate is:',float(errorCount)/len(testSet))
    return vocabList,p0V,p1V

import feedparser
ny=feedparser.parse('http://newyork.craigslist.org/stp/index.rss')
sf=feedparser.parse('http://sfbay.craigslist.org/stp/index.rss')
localWords(ny,sf)

#最具表征性的词汇显示函数(显示地域相关的用词)

def getTopWords(ny,sf):
    import operator
    vocabList,p0V,p1V= localWords(ny,sf)
    topNY=[]
    topSF=[]
    for i in range(len(p0V)):
#设定阈值。返回大于阈值的所有词,如果输出信息多就提高阈值,这里的阈值是取对数之后的概率,所以是负数
        if p0V[i] > -6.0 : topSF.append((vocabList[i],p0V[i]))
        if p1V[i] > -6.0 : topNY.append((vocabList[i],p1V[i]))
    sortedSF = sorted(topSF,key=lambda pair:pair[1],reverse=True)
    print('SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF')
    for item in sortedSF:
        print(item[0])
    sortedNY = sorted(topNY,key=lambda pair:pair[1],reverse=True)
    print('NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY')
    for item in sortedNY:
        print(item[0])
getTopWords(ny,sf)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值