使用朴素贝叶斯算法实现中文邮件分类_朴素贝叶斯算法用于邮件和文本分类

本文介绍了朴素贝叶斯算法在垃圾邮件分类中的应用,通过计算条件概率和贝叶斯公式,处理罕见词问题。内容涉及邮件预处理、特征提取(如词袋模型和TF-IDF)、以及情感分析中的算法比较。重点讲解了朴素贝叶斯分类器的训练和决策过程,以及生成模型与判别模型的区别。
摘要由CSDN通过智能技术生成

在朴素贝叶斯分析中,通过垃圾邮件分类和情感分析的实例,熟悉了贝叶斯分类算法的基本原理。同时熟悉了条件概率和贝叶斯公式。

在进行垃圾邮件分类时,首先创建由垃圾邮件和正常邮件构成的单词库。为了避免出现条件概率为零的情况,也就是某些单词没出现在训练数据中,但会出现在预测数据中。此时可采用平滑的技术,借助单词库对未出现在训练数据中的单词计算条件概率。

这样在进行具体的实例操作时,将针对单词库中的每个单词,分别在正常和垃圾邮件的情况下计算词库中每个单词出现的条件概率。

然后根据已知的正常和垃圾邮件,计算出正常邮件和垃圾邮件的先验概率。进而对于新收到的一封新邮件,根据贝叶斯定义分别计算出该邮件为正常邮件和垃圾邮件的概率。如果新邮件中的某些单词没有出现在训练数据的单词库中,计算新邮件为正常或垃圾邮件的概率时将忽略掉这些单词。从而完成数据的训练,做出邮件的分类决策。

在进行具体垃圾邮件的分类编码中:首先导入邮件的训练数据,并重命名训练数据集的列。然后把邮件类别Label和和每类邮件的Text分别数字化,并统计邮件中正常和垃圾邮件的数目。当正常和垃圾邮件的比例差别较大时,需进行处理。分别统计出训练数据中长度最小的文本,并可视化训练数据集的邮件长度数据分布。

然后把邮件的Text内容转换为向量的形式。在进行文本分析时,首先删除停用词即文本含义不起作用的词汇。然后构建出训练数据的X和Y向量。

把训练数据划分为训练数据和测试数据,并分别导入sklearn.naive_bayes模块的 MultinomialNB函数、sklearn.metrics模块的accuracy_score函数,利用朴素贝叶斯进行训练。

clf = MultinomialNB(alpha=1.0, fit_prior=True)

clf.fit(X_train, y_train)

y_pred = clf.predict(X_test)

print("accuracy on test data: ", accuracy_score(y_test, y_pred))

还可通过打印混淆矩阵,直观的显示出分类的效果,从而调整分类较差的类别。

在文本分类中,首先学习了单词和文本的表示方法。有了词典后,可以采用0和1的boolean方式进行表示,只关注单词是否出现。也可采用count表示法,关注单词在词典中出现几次。

Tf-idf表示法:某个单词在当前文档中的词频以及重要性系数,掌握了如何计算某个单词的Tf-idf值。首先根据训练数据创建词库,针对每个句子计算Tf-idf向量。

在情感分析中对比了各种机器学习算法的优劣,分类的精度,初步了解了算法的适用范围。

当特征值为实数型的时候,假定特征值服从高斯分布表示对应的条件概率。朴素贝叶斯算法是在计算联合概率时假定各个条件相互独立。

判别模型和生成模型:生成模型可生成一些数据。。

在计算联合概率分布时,可能会出现多个条件概率连乘的情况,可能会出现计算结果溢出的情况,因此在计算联合概率分布时采用对数的形式。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值