统计学习方法学习笔记:第四章.朴素贝叶斯

第四章:朴素贝叶斯

两大要素:贝叶斯定理特征条件独立假设

算法描述:对于给定的数据集,首先根据特征条件独立假设来学习输入输出的联合概率分布,然后对于新的输入,由贝叶斯定理计算后验概率最大的输出 y;

特征条件独立假设

如果没有这一假设,那么计算 P ( X = x ∣ Y = c k ) P(X = x|Y = c_k) P(X=xY=ck)几乎不太可能,因为参数个数为 K ∏ j = 1 n S j , S j 为 某 一 特 征 的 可 能 的 取 值 个 数 K\displaystyle\prod_{j=1}^{n}S_j,S_j为某一特征的可能的取值个数 Kj=1nSjSj

有了该假设之后,就可以计算:
P ( X = x ∣ y = c k ) = P ( X ( 1 ) = x ( 1 ) , X ( 2 ) = x ( 2 ) , . . . X ( n ) = x ( n ) ∣ Y = c k ) = ∏ j = 1 n P ( X ( j ) = x ( j ) ∣ Y = c k ) P(X = x|y = c_k) = P(X^{(1)} = x^{(1)},X^{(2)} = x^{(2)},...X^{(n)} = x^{(n)}|Y = c_k) =\displaystyle\prod_{j=1}^{n} P(X^{(j)} = x^{(j)}|Y = c_k) P(X=xy=ck)=P(X(1)=x(1),X(2)=x(2),...X(n)=x(n)Y=ck)=j=1nP(X(j)=x(j)Y=ck);

贝叶斯公式

由贝叶斯公式推出朴素贝叶斯分类器的模型:
y = a r g max ⁡ c k P ( Y = c k ) ∏ j = 1 n P ( X ( j ) = x ( j ) ∣ Y = c k ) y = arg\displaystyle\max_{c_k}P(Y = c_k)\displaystyle\prod_{j=1}^{n} P(X^{(j)} = x^{(j)}|Y = c_k) y=argckmaxP(Y=ck)j=1nP(X(j)=x(j)Y=ck)

参数估计

在上面求解后验概率的过程中,涉及到求解训练集的先验概率即: P ( Y = c k ) P(Y = c_k) P(Y=ck)(类别 c k c_k ck的概率)以及条件概率 P ( X = x ∣ y = c k ) P(X = x|y = c_k) P(X=xy=ck)(每一个特征的每一个值的条件概率),这就是需要学习的参数;有两种估计参数的方法分别为极大似然估计贝叶斯估计

极大似然估计:
P ( Y = c k ) = ∑ i = 1 N I ( y i = c k ) N P(Y = c_k) = \frac{\displaystyle\sum_{i=1}^{N}I(yi = c_k)}{N} P(Y=ck)=Ni=1NI(yi=ck);

P ( X ( j ) = a j l ∣ Y = c k ) = ∑ i = 1 N I ( X i ( j ) = a j l , y i = c k ) ∑ i = 1 N I ( y i = c k ) P(X^{(j)}= a_{jl}|Y = c_k) = \frac{\displaystyle\sum_{i=1}^{N}I(X_i^{(j)} = a_{jl},y_i = c_k)}{\displaystyle\sum_{i=1}^{N}I(yi = c_k)} P(X(j)=ajlY=ck)=i=1NI(yi=ck)i=1NI(Xi(j)=ajl,yi=ck) a j l a_{jl} ajl为第j个特征的第l个值;

贝叶斯估计:(极大似然可能出现频数为0,所以加上一个正数 λ \lambda λ
P ( Y = c k ) = ∑ i = 1 N I ( y i = c k ) + λ N + K λ P(Y = c_k) = \frac{\displaystyle\sum_{i=1}^{N}I(yi = c_k)+\lambda}{N+K\lambda} P(Y=ck)=N+Kλi=1NI(yi=ck)+λ

P ( X ( j ) = a j l ∣ Y = c k ) = ∑ i = 1 N I ( X i ( j ) = a j l , y i = c k ) + λ ∑ i = 1 N I ( y i = c k ) + S j λ P(X^{(j)}= a_{jl}|Y = c_k) = \frac{\displaystyle\sum_{i=1}^{N}I(X_i^{(j)} = a_{jl},y_i = c_k)+\lambda}{\displaystyle\sum_{i=1}^{N}I(yi = c_k)+S_j\lambda} P(X(j)=ajlY=ck)=i=1NI(yi=ck)+Sjλi=1NI(Xi(j)=ajl,yi=ck)+λ

λ = 1 \lambda =1 λ=1的时候,称为拉普拉斯平滑;

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值