贝叶斯学习 -- matlab、python代码分析(4)

python 代码分析
1 * 使用朴素贝叶斯实现朴素贝叶斯分类器* (从实例出发)
首先构建数据 : 从文本中构建词向量,也就是说将句子转换为向量。

def loadDataSet():
    postingList = [['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],
                   ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],
                   ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
                   ['stop', 'posting', 'stupid', 'worthless', 'garbage'],
                   ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
                   ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
    # 给出6个文本list
    classVec = [0,1,0,1,0,1] # 人为给出标签  1 有侮辱性文字 0 正常
    return postingList, classVec

def creatVocabList(dataSet):
    VocabSet = set([]) # 创建一个空list,并使用set的数据类型,保证字典中无重复
    for word in dataSet:
        VocabSet = VocabSet | set(word) # 操作符‘|’表示两个集合的并集
    return list(VocabSet)  # 返回list的数据类型

def setOfWords2Vec(vocabList, inputSet):   #词集模型
        # input为输入要对比的样本 比如postingList[0]
    returnVec = [0]*len(vocabList) # 创建所有为0的向量
    for word in inputSet:
        if word in vocabList:
            returnVec[vocabList.index(word)] = 1  #vocabList.index(word) 为word在vocabList中的索引值 如果在vocabList中有这个单词,相应位置设为1
        else:
            print("the word %s is not in VocabList" % word)
    return returnVec
# 输出文档向量,向量的元素为0或者1,分别表示字典中的单词在输入文档中是否没出现还是出现。

该程序运行结果:
输出字典:['problems', 'posting', 'him', 'garbage', 'my', 'love', 'dalmation', 'park', 'has', 'stupid', 'food', 'help', 'is', 'cute', 'ate', 'please', 'to', 'buying', 'dog', 'take', 'licks', 'stop', 'I', 'how', 'quit', 'not', 'worthless', 'mr', 'maybe', 'so', 'flea', 'steak'] 为list数据结构,无序。

输出的returnVec(比如第一个样本):[0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0]

算法核心
伪代码

计算每个类别中的文档数目
对每篇训练文档:
    对每个类别:
        如果词条出现在文档中---》增加该词条的计数值
        增加所有词条的计数值
    对每个类别:
        对每个词条:
            将该词条的数目除以总词条的数目得到条件概率
    返回每个类别的条件概率
# 训练算法:计算概率
from numpy import *
def trainNB(trainMatrix, trainLabel): # 输入训练数据矩阵 和 训练标签
    numTrainDocs = len(trainMatrix) # 训练样本个数
    numWords = len(trainMatrix[0]) # 字典的长度 相当于属性个数
    pAbusive = sum(trainLabel)/float(numTrainDocs ) # P(Vj) V={1,0} 含有侮辱性文档的概率,由于是二分类,另外一个 可以用1减去即可。
    p0Num = zeros(numWords) # 第0类文档中每个词条出现的总数量
    p1Num = zeros(numWords) 
    p0Denom = 0.0    # 第0类文档所有词条的数量
    p1Denom = 0.0
    for i in range(numTrainDocs):  # 遍历所有的文档 对每篇训练文档:
        if (trainLabel[i] == 1):  # 对每个类别
            p1Num += trainMatrix[i]   # 增加该词条的计算值
            p1Denom += sum(trainMatrix[i])  # 增加所有词条的计数值
        else:
            p0Num += trainMatrix[i]
            p0Denom += sum(trainMatrix[i])
    p1Vect = p1Num/p1Denom # 对每个类别,对每个词条,计算条件概率
    p0Vect = p0Num/p0Denom  # 对每个元素除以该类别中的总词数,(用一个数组除以浮点数即可实现)
    return p0Vect,p1Vect,pAbusive # 返回两个向量 一个概率

以上两个程序进行测试

这里写图片描述
这里写图片描述

注意: 输出的连个向量与字典长度相同,里面为某一类每个元素的条件概率。最终pAb为0.5,也就说我们输入的文档侮辱性概率为一半,与我们给的标签概率一样。

修改算法:
上述代码存在一些问题:
1 贝叶斯分类器,最终是要计算多个概率 p(ai|vj) 之积,来求得最终分类的概率。如果里面有一个为0,那最终都为0, 可以通过将所有概率初始化为1,并将分母初始化为2来解决。 nc+mpn+m 这里(m=2, p=1/2)

    p0Num = ones(numWords) # 第0类文档中每个词条出现的总数量
    p1Num = ones(numWords) 
    p0Denom = 2.0    # 第0类文档所有词条的数量
    p1Denom = 2.0

2 下溢出问题。 很多很小的数相乘,python最后会四舍五入到0., 通过取对数(ln)解决, f(x)和ln(f(x))曲线在相同区域内同增同减,并且在相同点上取得极值。

    p1Vect = log(p1Num/p1Denom)
    p0Vect = log(p0Num/p0Denom)  
#测试算法 : 朴素贝叶斯分类器
# p(v_j)*(多个P(ai|vj)相乘)
def classifyNB(Vect2classify, p0Vec, p1Vec, pAb):  #  朴素贝叶斯分类器
    # 输入Vect2classify 为要分类的文档,已经变为向量形式
    p1 = sum(Vect2classify*p1Vec) + log(pAb) # log(ab)=log(a)+log(b)
    p0 = sum(Vect2classify*p0Vec) + log(1-pAb)  # 计算V_NB 括号里面的想成为对应元素相乘
    if p1>p0:  # 分类
        return 1
    else:
        return 0
def testingNB():    
    data, label = loadDataSet()
    Vocab = creatVocabList(data)
    trainMat = []
    for i in data:
        trainMat.append(setOfWords2Vec(Vocab, i))
    p0Vec, p1Vec, pAb = trainNB(trainMat, label)
    test1 = ['love','my','dalmation']
    test2 = ['stupid','garbage','love','dog']
    testDoc1 = array(setOfWords2Vec(Vocab, test1)) # 为什么要用array数组?? 注(a)
    testDoc2 = array(setOfWords2Vec(Vocab, test2))
    print(test1,'classified as: ', classifyNB(testDoc1, p0Vec, p1Vec, pAb))
    print(test2,'classified as: ', classifyNB(testDoc2, p0Vec, p1Vec, pAb))

这里写图片描述

(a) 用numpy 中的数组来计算两个向量之积,对应元素相乘。但要保证相乘的为array结构,list不能相乘。

==============================================
python 实例 过滤垃圾邮件

1 数据处理
之前,我们对数据的处理是基于某个词是否出现,这成为词集模型。但如果一个词出现的不是一次,那么词集模型不能用来描述。词袋模型就派上用场。在词袋中,每个单词可以出现多次。当遇到相同单词时,增加字典相应位置的数量。

def bagOfWords2Vec(vocabList, inputSet):   #词袋模型
    returnVec = [0]*len(vocabList) 
    for word in inputSet:
        if word in vocabList:
            returnVec[vocabList.index(word)] += 1   # 增加相应位置数量
    return returnVec

原始邮件数据数据都是txt文档:
这里写图片描述
而非我们前面的list(词向量)形式,所有我们要经过分割达到list形式的源数据。
python string.split()

import re #  re 模块
emailText = open('email/ham/1.txt').read()
pattern = re.compile(r'\W*')  # 编译
list = re.split(pattern, emailText)  # 分割
    # [tok.lower() for tok in list if len(tok)>0] # 将所有元素变为小写

这里写图片描述

可以将上面的代码封装为函数

def textSeg(emailText):   # 数据处理函数
    import re #  re 模块
    pattern = re.compile(r'\W*')  # 编译
    list = re.split(pattern, emailText)  # 分割
    return [tok.lower() for tok in list if len(tok)>2] # 去除长度小于2的词

完整代码

from numpy import *
def creatVocabList(dataSet):

def bagOfWords2Vec(vocabList, inputSet): 

def trainNB(): # 上面已经解读

def classifyNB():

def textSeg(emailText):

def spamTest():    # 垃圾邮件测试
    DocList = []   # 
    labelList = []  # 标签list
    FullList = []   # 
    for i in range(1, 26): # 每个文件夹下25个txt文件
        emailText = open('email/spam/%d.txt' % i).read()
        wordList = textSeg(emailText)
        DocList.append(wordList) # append extend 区别,决策树里面有详细讲解
        FullList.extend(wordList)
        labelList.append(1)  # 人为标记
        emailText = open('email/ham/%d.txt' % i).read()
        wordList = textSeg(emailText)
        DocList.append(wordList) # append extend 区别,决策树里面有详细讲解
        FullList.extend(wordList)
        labelList.append(0)  # 人为标记
    Vocab = creatVocabList(DocList) # 创建字典
    # 随机抽取训练测试样本,总共50个样本 选取10个测试
    traingSetIndex = list(range(50)) 
    testSetIndex = [] 
    for i in range(10):
        index = int(random.uniform(0,50)) # 随机生成0-50的数
        testSetIndex.append(traingSetIndex[index]) # 选出来的放入 testSetIndex
        del(traingSetIndex[index]) # 还要删除traingSetIndex相应的位置索引
    trainMat = []
    trainLabel = []
    for i in traingSetIndex:
        trainMat.append(bagOfWords2Vec(Vocab, DocList[i]))
        trainLabel.append(labelList[i])
    p0Vec, p1Vec, pAb = trainNB(trainMat, trainLabel)
    errorcount = 0
    for i in testSetIndex: # 测试
        test = bagOfWords2Vec(Vocab, DocList(i))
        if classifyNB(test, p0Vec, p1Vec, pAb) != labelList[i]:
            errorcount += 1
    print('the error is: ', float(errorcount)/len(testSetIndex))        
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值