统计学习-朴素贝叶斯

朴素贝叶斯(naive Bayes)法是基于贝叶斯定理和特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布,然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。
也就是说朴素贝叶斯可以分为两部分,一部分是基于特征条件独立假设求出输入输出的联合概率分布,一部分就是基于贝叶斯定理求出后验概率。
1. P(x,y)=P(x|y)P(y)=P(xk1,xk2...,xkn|yk)P(yk)=ni=1P(xki)P(yk) ;
2. P(y|x)=P(x|y)P(y)P(x)

后验概率最大化

选择0-1损失函数:
L(Y,f(x))={10Yf(X))Y=f(X)
式中的 f(X) 是分类决策函数,这时候期望风险函数为:
Rexp(f)=E[L(Y,f(X))]
期望是对联合分布 P(X,Y) 取的,由此取条件期望:
Rexp(f)=EX[Kk=1(L(ck,f(X))P(ck|X))]
为了使期望风险最小化,只需要对 X=x 逐个极小化,由此得到:
f(x)
= argminKk=1(L(ck,f(X))P(ck|X))
= argminKk=1P(f(X)ck|X=x)
= argmin(1P(y=ck|X=x))
= argmaxP(y=ck|X=x))
这样一来期望风险最小化准则就得到后验概率准则

贝叶斯估计

用极大似然估计可能会出现所有估计得概率值为0的情况。这时会影响到后验概率的计算,解决这种情况一般使用贝叶斯估计。
p(y=ck)=Ni=1Iyi=ck+λN+Kλ1
p(xj=ajl|y=ck)=Ni=1I(xji=ajl,yi=ck)+λNi=1I(yi=ck)+Ljλ2
Ljl=1p(xj=ajl|y=ck)=13
K,Ljj

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值