分类算法-朴素贝叶斯算法

一、概率基础
(一)概率定义
概率定义为一件事情发生的可能性
(二)联合概率和条件概率
在这里插入图片描述
二、朴素贝叶斯公式
在这里插入图片描述
在这里插入图片描述
公式分为三个部分: 在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
三、sklearn朴素贝叶斯实现API
sklearn.naive_bayes.MultinomialNB
四、MultinomialNB语法
sklearn.naive_bayes.MultinomialNB(alpha=1.0)
alpha:拉普拉斯平滑系数
五、案例20类新闻分类
(一)流程
1、加载20类新闻数据,并进行分割
2、生成文章特征词
3、朴素贝叶斯estimator流程进行预估
(二)案例
from sklearn.datasets import fetch_20newsgroups
from sklearn.model_selection import train_test_split
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.naive_bayes import MultinomialNB
from sklearn.metrics import classification_report

def naviebayes():
“”"
朴素贝叶斯进行文本分类
:return:None
“”"
categories = [‘alt.atheism’, ‘talk.religion.misc’, ‘comp.graphics’, ‘sci.space’]
news = fetch_20newsgroups(subset=‘train’,categories=categories)
#进行数据分割
x_train,x_test,y_train,y_test= train_test_split(news.data,news.target,test_size=0.25)
#对数据集进行特征抽取
tf =TfidfVectorizer()
#以训练集当中的词的列表进行每篇文章重要性统计
x_train=tf.fit_transform(x_train)
print(tf.get_feature_names())
x_test =tf.transform(x_test)
# 进行朴素贝叶斯算法的预测
mlt = MultinomialNB(alpha =1.0)
print(x_train.toarray())
mlt.fit(x_train,y_train)
y_predict = mlt.predict(x_test)
print(‘预测的文章类别为:’,y_predict)
# 得出准确率
print(‘准确率为:’,mlt.score(x_test,y_test))
print(‘每个类别的精确率和召回率:’,classification_report(y_test,y_predict,target_names=news.target_names))
return None

if name ==‘main’:
naviebayes()
六、朴素贝叶斯分类优缺点
(一)优点
1、朴素贝叶斯模型发源于古典数学理论,有稳定的分类效率。
2、对缺失数据不太敏感,算法也比较简单,常用于文本分类。
3、分类准确度高,速度快。
(二)缺点
需要知道先验概率P(F1,F2,…|C),因此在某些时候会由于假设的先验模型的原因导致预测效果不佳。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值