python机器学习---监督学习---朴素贝叶斯(用于分类)

目录1、朴素贝叶斯算法基本原理1.1 思想基础1.2 简单应用案例1.3 朴素贝叶斯的不同方法2、朴素贝叶斯算法实战3、朴素贝叶斯算法优缺点备注:本文主要来自于对《深入浅出python机器学习》书籍的学习总结笔记,感兴趣的同学可以购买本书学习,学习的本质就是形成自己的逻辑。1、朴素贝叶斯算法基本原理1.1 思想基础对于给出的待分类项x={a1,a2....a...
摘要由CSDN通过智能技术生成

目录

1、朴素贝叶斯算法基本原理

1.1 思想基础

1.2 简单应用案例

1.3 朴素贝叶斯的不同方法

2、朴素贝叶斯算法实战

3、朴素贝叶斯算法优缺点


备注:本文主要来自于对《深入浅出python机器学习》书籍的学习总结笔记,感兴趣的同学可以购买本书学习,学习的本质就是形成自己的逻辑。

1、朴素贝叶斯算法基本原理

1.1 思想基础

对于给出的待分类项x={a1,a2....an},有类别集合y={y1,y2...yn},通过训练数据样本求解当x出现的情况下给类别出现的概率,即P(y1|x),P(y2|x)...P(yn|x),哪个概率最大就认为分类项x数据哪个类别。如发现P(y2|x)最大,就认为x的类别是y2。

如果各个特征a1...an独立,则根据贝叶斯定理,,即P(y1|x)=P(x|y1)*P(y1)/P(x)

由于分母都是P(x),只看分子即可,当各特征独立时有

1.2 简单应用案例

我们通过一个简单的案例来理解朴素贝叶斯算法,我们已知下面信息,0代表不发生,1代表发生:

##1-数据准备
#导入训练数据
import numpy as np
#将x,y赋值为np数组
x = np.array([[0, 1, 0, 1], 
              [1, 1, 1, 0], 
              [0, 1, 1, 0], 
              [0, 0, 0, 1], 
              [0, 1, 1, 0], 
              [0, 1, 0, 1], 
              [1, 0, 0, 1]])
y = np.array( [0, 1, 1, 0, 1, 0, 0])
#对不同分类y统计每个特征的数量
counts = {}
for label in np.unique(y):
    counts[label] = x[y == label].sum(axis=0)
print("feature counts:\n{}".format(counts))

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值