统计学习方法笔记 第四章 朴素贝叶斯(包含Python代码)


1. 朴素贝叶斯法的学习与分类

贝叶斯法求后验概率最大的输出做为输出,是一种生成模型。

1.1 基本方法

朴素贝叶斯方法通过训练数据集学习联合概率分布 P ( X , Y ) P(X,Y) P(X,Y),通过学习先验概率分布和条件概率分布,根据贝叶斯公式求得联合概率分布。朴素贝叶斯方法对于条件概率分布做出了条件独立性假设,即假设用于分类的特征在类确定的条件下都是条件独立的。

朴素贝叶斯法在分类时,将后验概率最大的类作为类输出,朴素贝叶斯分类器可以表示为:

y = f ( x ) = a r g max ⁡ c k P ( Y = c k ) ∏ j P ( X ( j ) = x ( j ) ∣ Y = c k ) y=f(x)=arg\max_{c_k}P(Y=c_k){\prod}_jP(X^{(j)}=x^{(j)}|Y=c_k) y=f(x)=argckmaxP(Y=ck)jP(X(j)=x(j)Y=ck)

1.2 后验概率最大化的含义

朴素贝叶斯方法的后验概率最大化等价于期望风险最小化。


2. 朴素贝叶斯法的参数估计

2.1 极大似然估计

朴素贝叶斯法的先验概率和条件概率应用极大似然估计计算:

P ( Y = c k ) = ∑ i = 1 N I ( y i = c k ) N , k = 1 , 2 , … , K P(Y=c_k)=\frac{\sum_{i=1}^{N}I(y_i=c_k)}{N},k=1,2,\dots,K P(Y=ck)=Ni=1NI(yi=ck),k=1,2,,K

P ( X j = a j l ∣ Y = c k ) = ∑ i = 1 N I ( x i ( j ) = a j l , y i = c k ) ∑ i = 1 N I ( y i = c k ) P(X^{j}=a_{jl}|Y=c_k)=\frac{\sum_{i=1}^{N}I(x_i^{(j)}=a_{jl},y_i=c_k)}{\sum_{i=1}^{N}I(y_i=c_k)} P(Xj=ajlY=ck)=i=1NI(yi=ck)i=1NI(xi(j)=ajl,yi=c

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值