机器学习之朴素贝叶斯算法

这是更新的第三篇机器学习算法,进度着实有点缓慢。立个flag:每周更新一个算法,加上SQL实战一篇,每周两篇文章。

一、朴素贝叶斯原理

朴素贝叶斯算法是基于贝叶斯定理特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于次模型,对给定的x,利用贝叶斯定理求出后验概率最大的输出。

1、概率论基础知识

条件概率: 已知事件A发生的条件下,事件B发生的概率,记作: p ( B ∣ A ) p(B|A) p(BA),相关公式如下:
p ( A B ) = p ( B ∣ A ) P ( A ) p(AB)=p(B|A)P(A) p(AB)=p(BA)P(A) p ( A ∣ B ) = p ( A B ) p ( B ) p(A|B)=\frac{p(AB)}{p(B)} p(AB)=p(B)p(AB) p ( A ∣ B ) = p ( B ∣ A ) p ( A ) p ( B ) p(A|B)=\frac{p(B|A)p(A)}{p(B)} p(AB)=p(B)p(BA)p(A)
全概率公式: 假设事件 A 1 , A 2 , . . . , A n 是 一 个 完 备 的 事 件 组 , 则 对 任 一 个 事 件 B , 有 A_{1},A_{2},...,A_{n}是一个完备的事件组,则对任一个事件B,有 A1,A2,...,AnB,
p ( B ) = p ( A 1 ) p ( B ∣ A 1 ) + p ( A 2 ) p ( B ∣ A 2 ) + . . . + p ( A n ) p ( B ∣ A n ) = ∑ i = 1 n p ( A i ) p ( B ∣ A i ) \begin{aligned}p(B) &=p(A_{1})p(B|A_{1})+p(A_{2})p(B|A_{2})+...+p(A_{n})p(B|A_{n})\\ &=\sum\limits_{i=1}^np(A_{i})p(B|A_{i}) \end{aligned} p(B)=p(A1)p(BA1)+p(A2)p(BA2)+...+p(An)p(BA

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值