机器学习十大算法之一:朴素贝叶斯Bayes

机器学习十大算法之一:朴素贝叶斯Bayes


1 课题导入

1.1 贝叶斯公式

01-贝叶斯公式.png-8.9kB
P(AB)=P(A)+P(B)P(AB) P ( A ∪ B ) = P ( A ) + P ( B ) − P ( A ∩ B )
P(AB)=P(A|B)P(B)=P(B|A)P(A) P ( A B ) = P ( A | B ) P ( B ) = P ( B | A ) P ( A )
贝叶斯公式:

P(A|B)=P(A)P(B|A)P(B) P ( A | B ) = P ( A ) P ( B | A ) P ( B )

1.2 先验概率、后验概率、可能性

先验概率:先验概率仅仅依赖于主观上的经验估计,也就是事先根据已有的知识的推断,先验概率就是没有经过实验验证的概率,根据已知进行的主观臆测。
eg: 抛一枚硬币,在抛之前,主观推断P(正面朝上) = 0.5

后验概率: 后验概率是指在得到“结果”的信息后重新修正的概率,如贝叶斯公式中的。是“执果寻因”问题中的”果”。先验概率与后验概率有不可分割的联系,后验概率的计算要以先验概率为基础。解释下来就是,在已知果(B)的前提下,得到重新修正的因(A)的概率P(A|B),称为A的后验概率,也即条件概率。后验概率可以通过贝叶斯公式求解。

P(e|H) 就是似然函数,P(e)相当于是一个归一化项,整个公式就是表达了“后验概率正比于先验概率乘以似然函数”。

02-先验与后验.png-189.5kB

1.3 概率基础知识

1.3.1 条件概率

                         是指事件A在另外一个事件B已经发生条件下的发生概率。条件概率表示为:P(A|B),读作“在B条件下A的概率”。
P(A|B)=P(AB)/P(B) P ( A | B ) = P ( A B ) / P ( B )
P(B|A)=P(AB)/P(A) P ( B | A ) = P ( A B ) / P ( A )
所以: P(A|B)=P(B|A)P(A)/P(B) P ( A | B ) = P ( B | A ) ∗ P ( A ) / P ( B )

1.3.2 全概率公式

P(B)=i=1nP(Ai)P(B|Ai) P ( B ) = ∑ i = 1 n P ( A i ) P ( B | A i )

1.3.3 贝叶斯公式

P(Ai|B)=P(B|Ai)P(Ai)ni=1P(B|Ai)P(Ai) P ( A i | B ) = P ( B | A i ) P ( A i ) ∑ i = 1 n P ( B | A i ) P ( A i )

1.3.4 拉普拉斯平滑
a. 拉普拉斯平滑的意义

                         为了解决零概率的问题,法国数学家拉普拉斯最早提出用加1的方法估计没有出现过的现象的概率,所以加法平滑也叫做拉普拉斯平滑。
                         假定训练样本很大时,每个分量x的计数加1造成的估计概率变化可以忽略不计,但可以方便有效的避免零概率问题。

b. 拉普拉斯平滑公式

                         公式 P(yk|x)=P(yk)P(xi|yk

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值