分类算法————朴素贝叶斯算法

目录

1,概率基础

2,贝叶斯公式

3,朴素贝叶斯算法

4,文本分类

4.1 拉普拉斯平滑系数

5.API

6,案例:20类新闻分类

7,总结


1,概率基础

  • 联合概率:包含多个条件,且所有条件同时成立的概率
    • 记作:P(A,B)
    • 特性:P(A, B) = P(A)P(B)<=>A B相互独立
  • 条件概率:就是事件A在另外一个事件B已经发生条件下的发生概率
    • 记作:P(A|B)
    • 特性:P(A1,A2|B) = P(A1|B)P(A2|B)

2,贝叶斯公式

3,朴素贝叶斯算法

原理:朴素+贝叶斯。在假设特征与特征之间相互独立的条件下,利用贝叶斯公式来计算出现概率 。通常用于文本分类之中

4,文本分类

可能会由于样本数量过少,出现某个概率为0。因此引入拉普拉斯平滑系数 

4.1 拉普拉斯平滑系数

目的:防止计算出的分类概率为0

 m为出现的特征词个数,不是出现次数

5.API

  • sklearn.naive_bayes.MultinomialNB(alpha = 1.0)
    • 朴素贝叶斯分类
    • alpha:拉普拉斯平滑系数

6,案例:20类新闻分类

from sklearn.datasets import fetch_20newsgroups
from sklearn.model_selection import train_test_split
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.naive_bayes import MultinomialNB

def news_demo():
    """
    用朴素贝叶斯算法对新闻分类
    :return:
    """
    #1.获取数据
    news=fetch_20newsgroups(subset="all")

    #2.划分数据集
    x_train,x_test,y_train,y_test=train_test_split(news.data,news.target)

    #3.特征工程:用tfidy文本特征提取
    transfer=TfidfVectorizer()
    x_train=transfer.fit_transform(x_train)
    x_test=transfer.transform(x_test)

    #4.朴素贝叶斯算法模型训练
    estimator=MultinomialNB()
    estimator.fit(x_train,y_train)   #??

    #5.评估模型
    y_predict=estimator.predict(x_test)
    print("真实值与预测值:\n",y_predict==y_test)

    score=estimator.score(x_test,y_test)
    print("预测准确率为:\n",score)

    return None
news_demo()

7,总结

  • 优点:
    • 朴素贝叶斯模型发源于古典数学理论,有稳定的分类效率。
    • 对缺失数据不太敏感,算法也比较简单,常用于文本分类。
    • 分类准确度高,速度快
  • 缺点:
    • 由于使用了样本特征属性独立性的假设,所以如果特征属性有关联时其效果不好

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值