朴素贝叶斯

1、原理

朴素贝叶斯和贝叶斯估计不是一回事。
朴素贝叶斯基于条件独立性假设 P(X=x|Y=ck)=nj=1P(Xj=xj|Y=ck)
朴素贝叶斯是学习到生成数据的机制,属于生成模型。

2、流程

输入:训练数据 T={(x1,y1),(x2,y2),....,(xn,yn)}xi=(x1i,x2i,...xni),xjiij xji{aj1,aj2,...,ajSl}ajljl,j=1,2,...,n;l=1,2,...,Sj,yi{c1,c2,...,ck}
输出:实例x的分类
(1)计算先验概率和条件概率
先验概率: P(Y=ck)=Ni=1I(yi=ck)N,k=1,2,...,K
条件概率: P(Xj=ajl|Y=ck)=Ni=1I(xji=ajl,yi=ck)Ni=1I(yi=ck),j=1,2,...n;l=1,2,...Sj;k=1,2,...K
(2)对于给定的实例 xi=(x1i,x2i,...xni) ,计算

P(Y=ck)j=1nP(Xj=xj|Y=ck),k=1,2,...,K

(3)确定实例x的类
y=argmaxckP(Y=ck)j=1nP(Xj=xj|Y=ck)

3、拉普拉斯校准

当P(a|y)=0怎么办,当某个类别下某个特征项划分没有出现时,就是产生这种现象,这会令分类器质量大大降低。为了解决这个问题,我们引入Laplace校准,它的思想非常简单,就是对没类别下所有划分的计数加1,这样如果训练样本集数量充分大时,并不会对结果产生影响,并且解决了上述频率为0的尴尬局面。

4、遇到特征之间不独立问题

参考改进的贝叶斯网络,使用DAG来进行概率图的描述

5、优缺点

优点:对小规模的数据表现很好,适合多分类任务,适合增量式训练。
缺点:对输入数据的表达形式很敏感(离散、连续,值极大极小之类的)。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值