机器学习使用朴素贝叶斯实现中文垃圾邮件分类

import jieba
import numpy as np
import pandas as pd

#朴素贝叶斯实现中文垃圾邮件分类
#loadbelFile(),加载index文件,使用字典来存储文件对应的标签
def loadLabelFile(labelFile='full/index'):
    labelDict={}
    for a in open(labelFile,encoding='utf_8'):
        if a.strip()!='':
            alist=a.strip().split('../data')
            labelDict[alist[1]]=alist[0].strip()
    return labelDict
c=loadLabelFile()
print(c)
#readDatalFile(),读取data目录下的邮件数据,将所有垃圾邮件放在ham列表中
def readDatalFile(dataFilePath,labelDict):
    spam=[]
    ham=[]
    for path,label in labelDict.items():
        filePath=dataFilePath+path
        temp= ''
        with open(filePath,'rb') as f:
            for line in f:
                #ignore:忽略非法字符。
                #ignore如果不写,如字符串中出现非法字符,该内容则无法转换
                online=line.decode('gbk','ignore').strip()
                temp=temp+online
        if label=='spam':
            spam.append(temp)
        else:
            ham.append(temp)
    return spam,ham
spam,am=readDatalFile('data/trec06c/data',c)
print(spam)
def loadStopWord(stopWordPath):
    stopWordList = []
    with open('chineseStopWords.txt',encoding='utf-8')as f:
        for word in f:
            if word.strip()!='':
                stopWordList.append(word.strip())
    return stopWordList
stopWordList=loadStopWord('chineseStopWords.txt')

import re
def dataProcess(mailList,stopWordList):
    mailProcessedList=[]
    for mail in mailList:
        nonChinese=re.findall(r'[\u4e00-\u9fa5]+',mail)
        #过滤停用词
        cutword = jieba.cut(nonChinese)
        mailProcessed=''.join([word for word in cutword if word not in stopWordList])
        mailProcessedList.append(mailProcessed)
    return mailProcessedList
spanList = dataProcess(spam,stopWordList)
hamList = dataProcess(am,stopWordList)
print(spanList)

def getDataAndLabel(spamList,hamlist):
    dataList = []
    labelList = []
    for spammail in spamList:
        dataList.append(spammail)
        labelList.append(1)
    for hammail in hamlist:
        dataList.append(hammail)
        labelList.append(0)
    return dataList,labelList
dataList,labelList = getDataAndLabel(spanList,hamList)
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.naive_bayes import  MultinomialNB
from sklearn.model_selection import train_test_split
x_train,x_test,y_train,y_test = train_test_split(dataList,labelList,test_size=0.2,random_state=9)
tfidf = TfidfVectorizer(max_features = 4000)
x_train_tfidf = tfidf.fit_transform(x_train)
print(type(x_train_tfidf))
print(x_train_tfidf.shape)
x_test_tfidf = tfidf.transform(x_test)
print(x_test_tfidf.shape)
mnb=MultinomialNB()
scores = mnb.fit(x_test_tfidf,y_test)
print(scores)

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 以下是朴素贝叶斯算法实现垃圾邮件分类的伪代码: 1. 建立垃圾邮件库和正常邮件库,分别统计每个单词在垃圾邮件和正常邮件中出现的频率,并计算垃圾邮件和正常邮件的出现概率。 2. 对待分类邮件进行分词,并统计每个单词在待分类邮件中出现的频率。 3. 通过贝叶斯公式计算待分类邮件属于垃圾邮件的概率和属于正常邮件的概率,选择概率较大的一类作为分类结果。 4. 对新的垃圾邮件和正常邮件进行分类,并将分类结果加入相应的邮件库中,更新单词出现频率和邮件出现概率。 以下是具体实现的伪代码: ``` # 创建垃圾邮件库和正常邮件库 spam_emails = [] normal_emails = [] # 统计每个单词在垃圾邮件和正常邮件中出现的频率 spam_word_count = {} normal_word_count = {} for email in spam_emails: words = get_words(email) for word in words: spam_word_count[word] = spam_word_count.get(word, 0) + 1 for email in normal_emails: words = get_words(email) for word in words: normal_word_count[word] = normal_word_count.get(word, 0) + 1 # 计算垃圾邮件和正常邮件的出现概率 spam_prob = len(spam_emails) / (len(spam_emails) + len(normal_emails)) normal_prob = len(normal_emails) / (len(spam_emails) + len(normal_emails)) # 对待分类邮件进行分词,并统计每个单词在待分类邮件中出现的频率 words = get_words(email_to_classify) word_count = {} for word in words: word_count[word] = word_count.get(word, 0) + 1 # 计算待分类邮件属于垃圾邮件的概率和属于正常邮件的概率 spam_word_prob = 1 normal_word_prob = 1 for word, count in word_count.items(): spam_word_prob *= (spam_word_count.get(word, 0) + 1) / (sum(spam_word_count.values()) + len(word_count)) normal_word_prob *= (normal_word_count.get(word, 0) + 1) / (sum(normal_word_count.values()) + len(word_count)) spam_prob_result = spam_prob * spam_word_prob normal_prob_result = normal_prob * normal_word_prob # 选择概率较大的一类作为分类结果 if spam_prob_result > normal_prob_result: result = "spam" else: result = "normal" # 对新的垃圾邮件和正常邮件进行分类,并更新单词出现频率和邮件出现概率 if result == "spam": spam_emails.append(email_to_classify) for word, count in word_count.items(): spam_word_count[word] = spam_word_count.get(word, 0) + count else: normal_emails.append(email_to_classify) for word, count in word_count.items(): normal_word_count[word] = normal_word_count.get(word, 0) + count spam_prob = len(spam_emails) / (len(spam_emails) + len(normal_emails)) normal_prob = len(normal_emails) / (len(spam_emails) + len(normal_emails)) ``` 以上代码仅为伪代码,实际实现时需要根据具体情况进行调整。 ### 回答2: 朴素贝叶斯算法是一种常用的垃圾邮件分类方法,下面是其实现的伪代码。 1. 数据预处理: 将邮件文本转化为词向量,提取关键词并计算每个词在垃圾邮件和非垃圾邮件中出现的次数。 2. 训练过程: 1. 统计训练集中垃圾邮件和非垃圾邮件的数量(分别记为spamCount和hamCount)。 2. 统计每个关键词在垃圾邮件和非垃圾邮件中出现的次数,得到两个词频向量(分别记为spamFreq和hamFreq)。 3. 计算垃圾邮件和非垃圾邮件中的总词数(分别记为spamTotalWords和hamTotalWords)。 4. 计算每个词在垃圾邮件和非垃圾邮件中的条件概率(分别记为spamProb和hamProb): - 对于每个词: - 计算该词在垃圾邮件中的条件概率:spamProb[word] = (spamFreq[word] + 1) / (spamTotalWords + V) - 计算该词在非垃圾邮件中的条件概率:hamProb[word] = (hamFreq[word] + 1) / (hamTotalWords + V) 其中V为词汇表的大小。 3. 预测过程: 1. 对于每封待分类的邮件: - 初始化垃圾邮件概率spamProbability和非垃圾邮件概率hamProbability为1。 - 将邮件文本转化为词向量。 - 对于每个词: - 如果该词在词汇表中存在,则更新垃圾邮件概率和非垃圾邮件概率: - spamProbability *= spamProb[word] - hamProbability *= hamProb[word] - 计算邮件属于垃圾邮件和非垃圾邮件的概率: - spamProbability *= (spamCount / (spamCount + hamCount)) - hamProbability *= (hamCount / (spamCount + hamCount)) - 根据垃圾邮件概率和非垃圾邮件概率确定最终分类结果。 以上就是朴素贝叶斯算法实现垃圾邮件分类的伪代码。根据邮件文本的词频统计和条件概率计算,该算法通过分析特征词的出现情况,判断邮件属于垃圾邮件或非垃圾邮件的概率,并根据概率确定分类结果。 ### 回答3: 朴素贝叶斯是一种经典的机器学习算法,用于文本分类问题,下面是朴素贝叶斯实现垃圾邮件分类的伪代码: 1. 数据预处理: - 从训练数据集中获取垃圾邮件和非垃圾邮件的样本集,对邮件进行标记。 - 对每个邮件进行分词,得到每个邮件的词汇表。 2. 特征提取: - 构建垃圾邮件和非垃圾邮件的特征向量,以原始邮件的词汇表作为特征集合。 - 统计每个词在垃圾邮件和非垃圾邮件中的出现次数,得到垃圾邮件和非垃圾邮件的词频向量。 3. 训练模型: - 统计训练样本中垃圾邮件和非垃圾邮件的数量。 - 计算每个词在垃圾邮件和非垃圾邮件中的条件概率。 4. 分类: - 输入一个新的邮件,将其分词,得到特征向量。 - 计算该邮件属于垃圾邮件和非垃圾邮件的概率。 - 根据概率大小,将该邮件分类垃圾邮件或非垃圾邮件朴素贝叶斯实现垃圾邮件分类的伪代码如上所示,通过统计训练样本中词频和计算条件概率,可以建立一个模型来对新的邮件进行分类。该算法简单、易于实现,并且在文本分类问题中有较好的表现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值