机器学习实战03:朴素贝叶斯

- 基于贝叶斯决策理论的分类方法

优点:在数据较少的情况下仍然有效,可以处理多类别问题。
缺点:对于输入数据的准备方式较为敏感。
适用数据类型:标称型数据。

- 朴素贝叶斯的一般过程

(1) 收集数据:可以使用任何方法。本章使用RSS源。
(2) 准备数据:需要数值型或者布尔型数据。
(3) 分析数据:有大量特征时,绘制特征作用不大,此时使用直方图效果更好。
(4) 训练算法:计算不同的独立特征的条件概率。
(5) 测试算法:计算错误率。
(6) 使用算法:一个常见的朴素贝叶斯应用是文档分类。可以在任意的分类场景中使用朴素贝叶斯分类器,不一定非要是文本

- 示例1:使用朴素贝叶斯过滤垃圾邮件

(1) 收集数据:提供文本文件。
(2) 准备数据:将文本文件解析成词条向量。
(3) 分析数据:检查词条确保解析的正确性。
(4) 训练算法:使用我们之前建立的trainNB0()函数。
(5) 测试算法:使用classifyNB(),并且构建一个新的测试函数来计算文档集的错误率。
(6) 使用算法:构建一个完整的程序对一组文档进行分类,将错分的文档输出到屏幕上。

1、准备数据:切分文本
2、测试算法:使用朴素贝叶斯进行交叉验证

def texParse(bigString)
    import re
    listofTokens = re.split(r'\w*',bigString)
    return [tok.lower() for tok in listofTokens if len(tok) > 2]
def spamTest():
    docList = [];classList = [];fullText = []
    for i in range(1,26)
        wordList = textParse(open('email/spam/%d.tet'%i).read())
        docList.append(wordList)
        fullText.extend(wordList)
        classList.append(1)
        wordList = textParse(open('email/ham/%d.tet'%i).read())
        docList.append(wordList)
        fullList.extend(wordList)
        classList.append(0)
    vocabList = createVocabList(docList)
    trainingSet = range(50);testSet = []
    for i in range(10):
        randIndex = int(random.uniform(0,len(trainingSet)))
        testSet.append(trainingSet[randIndex])
        del(trainingSet[randIndex])
    trainMat = [];trainClasses = []
    for docIndex in trainingSEt:
        trainMat.append(setOfWords2Vec(vocabList,docList[docIndex]))
        trainClasses.append(classList[docIndex])
    p0V,p1V,pSpam = trainNB0(array(trainMat),array(trainClasses))
    for docIndex in testSet:
        wordVector = setOfWords2Vec(vocabList,docList[docIndex])
        if classifyNB(array(wordVector),p0V,p1V,pSpam != classList[docIndex]:
            errorCount += 1
        print 'the error rate is: ',float(erroeCount)/len(testSet)

- 示例2:使用朴素贝叶斯分类器从个人广告中获取区域取向

(1) 收集数据:从RSS源收集内容,这里需要对RSS源构建一个接口。
(2) 准备数据:将文本文件解析成词条向量。
(3) 分析数据:检查词条确保解析的正确性。
(4) 训练算法:使用我们之前建立的trainNB0()函数。
(5) 测试算法:观察错误率,确保分类器可用。可以修改切分程序,以降低错误率,提高
分类结果。
(6) 使用算法:构建一个完整的程序,封装所有内容。给定两个RSS源,该程序会显示最
常用的公共词。

1、收集数据:导入RSS源RSS源分类器及高频词去除函数:计算高频词的出现频率、每次访问一条RSS源、去掉出现次数最多的那些词。为了得到错误率的精确估计,应该多次进行上述实验,然后取平均值。这里的错误率要远高于垃圾邮件中的错误率。由于这里关注的是单词概率而不是实际分类,因此这个问题倒不严重。可以通过函数caclMostFreq()改变要移除的单词数目,然后观察错误率的变化情况。

2、分析数据:显示地域相关的用词

def getTopWords(np,sf):
    import operator
    vocabList,p0V,p1V = localWords(ny,sf)
    topNY = [];topSF = []
    for i in range(len(p0V)):
        if p0V[i] > -6.0:topSF.append((vocabList[i],p0V[i]))
        if p1V[i] > -6.0:topNY,append((vocabList[i].p1V))
    sortedSF = sorted(topSF, key = lambda pair:pair[1],reverse = True)
    print "NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**"
    for item in sortedNY:
        print item[0]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值