机器学习——朴素贝叶斯法提要

机器学习——朴素贝叶斯法提要

朴素贝叶斯方法相较于其他机器学习方法,原理简单实现方便效率较高,学术领域内常用作baseline同其他方法进行比较。

理论依据

贝叶斯定理

P(Bi|A)=P(Bi)P(A|Bi)nj=1P(Bj)P(A|Bj) P ( B i | A ) = P ( B i ) P ( A | B i ) ∑ j = 1 n P ( B j ) P ( A | B j )

理论假设:不同特征之间条件独立分布。

学习内容

先验概率分布

P(Y=Ck) P ( Y = C k )

条件概率分布
P=(X=x|Y=ck) P = ( X = x | Y = c k )

在此基础上进行预测任务(后验概率):

y=argmaxCkP(Y=Ck)jP(Xj=xj|Y=Ck) y = a r g max C k P ( Y = C k ) ∏ j P ( X j = x j | Y = C k )

这样一来,实例x将被分到后验概率最大的类中,这将使得期望风险最小。

至于先验概率和条件概率怎么得出,大致有两种方法:

1. 极大似然估计

P(Y=ck)=i=1NI(yi=ck)/N,k=1,2...K P ( Y = c k ) = ∑ i = 1 N I ( y i = c k ) / N , k = 1 , 2... K

P(Xj=ajl|Y=ck)=Ni=1I(xji=ajl,yi=ck)Ni=1I(yi=ck) P ( X j = a j l | Y = c k ) = ∑ i = 1 N I ( x i j = a j l , y i = c k ) ∑ i = 1 N I ( y i = c k )

ajl是第j个特征可能取得第l个值。

2. 贝叶斯估计

极大似然估计可能会出现所要估计的概率值为0的情况,这会影响到后验概率的计算结果。为了解决这个问题,提出了新的条件概率先验概率估计方法:

Pλ(Xj=ajl|Y=ck)=Ni=1I(xji=ajl,yi=ck)+λNi=1I(yi=ck)+Sλ P λ ( X j = a j l | Y = c k ) = ∑ i = 1 N I ( x i j = a j l , y i = c k ) + λ ∑ i = 1 N I ( y i = c k ) + S λ

Pλ(Y=ck)=Ni=1I(yi=ck)+λN+Kλ P λ ( Y = c k ) = ∑ i = 1 N I ( y i = c k ) + λ N + K λ

算法提炼

(1)计算先验概率和条件概率x;
(2)对于给定的实例,计算后验最大值对应的y的类别。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值