机器学习笔记--常见算法(5)--朴素贝叶斯分类器

朴素贝叶斯分类器

模型评价:

优点:在数据较少的情况下仍然有效,可以处理多类别问题

缺点:对于输入数据的准备方式较为敏感

适用数据类型:标称型数据

贝叶斯决策理论的核心思想:选择具有最高概率的决策

条件概率

计算条件概率的方法

①条件概率计算公式: p ( B ∣ A ) = P ( A B ) P ( A ) p(B|A) = \frac{P(AB)}{P(A)} p(BA)=P(A)P(AB)

②贝叶斯准则:贝叶斯准则告诉我们如何交换条件概率中的条件与结果。

p ( c i ∣ w ) = p ( w ∣ c i ) p ( c i ) p ( w ) p(c_i|w) = \frac{p(w|c_i)p(c_i)}{p(w)} p(ciw)=p(w)p(wci)p(ci)

使用条件概率来分类:

如果 p ( c 1 ∣ x , y ) > p ( c 2 ∣ x , y ) p(c_1|x, y) > p(c_2|x, y) p(c1x,y)>p(c2x,y), 那么属于类别 c 1 c_1 c1

如果 p ( c 1 ∣ x , y ) &lt; p ( c 2 ∣ x , y ) p(c_1|x, y) &lt; p(c_2|x, y) p(c1x,y)<p(c2x,y), 那么属于类别 c 2 c_2 c2

使用贝叶斯准则,可以通过已知的三个概率值来计算未知的概率值。

朴素贝叶斯分类器假设:

①特征之间相互独立。这个假设是朴素贝叶斯分类器中"朴素"(naive)一词的含义

②每个特征同等重要

因为特征之间相互独立,所以,

p ( w ∣ c i ) = p ( w 0 ∣ c i ) p ( w 1 ∣ c i ) … p ( w N ∣ c i ) p(w|c_i)=p(w_0|c_i)p(w_1|c_i)…p(w_N|c_i) p(wci)=p(w0ci)p(w1ci)p(wNci)

所以,

p ( c i ∣ w ) = p ( c i ) ∏ i = 1 N p ( w i ∣ c i ) p ( w ) p(c_i|w) = \frac{p(c_i)\prod_{i=1}^{N}p(w_i|c_i)}{p(w)} p(ciw)=p(w)p(ci)i=1Np(wici)

因为p(w)是个常数,所以,

p ( c i ∣ w ) = ∝ p ( c i ) ∏ i = 1 N p ( w i ∣ c i ) p(c_i|w) = \propto p(c_i)\prod_{i=1}^{N}p(w_i|c_i) p(ciw)=p(ci)i=1Np(wici)

故, c ^ = a r g m a x c P ( c ) ∏ i = 1 N P ( w i ∣ c ) \hat{c} = arg \underset{c}{max}P(c)\prod_{i=1}^{N}P(w_i|c) c^=argcmaxP(c)i=1NP(wic)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值