1.朴素贝叶斯
朴素贝叶斯法式基于贝叶斯定理以及特征条件独立分布的假设的一种分类方法。
条件独立性分布:在类确定的条件下,用于分类的特征都是条件独立的。即满足
学习朴素贝叶斯的过程涉及到一部分概率论的知识,准备另写一篇博客记录。
2.朴素贝叶斯模型
根据给定数据集,学习联合概率分布
P(X,Y)
,对于给定输入
x
,求出使其后验概率最大的
1.通过训练数据集学习联合概率分布
P(X,Y)
,具体地,学习以下先验概率
以及条件概率
2.后验概率由贝叶斯定理求得
根据条件独立假设,上式可变形为如下形式,即朴素贝叶斯分类器可用如下形式表示
选择后验概率最大的输出,
因为对于同一输入 x ,其分母都是相同的,所以求后验概率最大又变为求
3.朴素贝叶斯学习策略
上文中提到了后验概率最大的概念,之前接触到的学习策略通常是期望风险最小,这里存在一个后验概率最大和期望风险最小的对应。
设损失函数为0-1损失函数
其中 f(X) 为分类决策函数。由该损失函数得期望风险函数
期望是 X 确定的条件下的条件期望,
使期望风险函数最小,
就等价于后验概率最大。
4.朴素贝叶斯学习方法
首先来看如何得出第二节中提到的先验概率和条件概率(用于求取后验概率),有两种方式,一种是极大似然估计,一种是贝叶斯估计。
4.1极大似然估计
样本总数为
N
,先验概率的极大似然估计:
第 j 个特征
x(j)i 表示第 i 个样本的第
这两个式子是如何得到的呢?
- 首先来看什么是似然函数:
设随机变量
当 Xi 给定时,等式右侧是 θk 的函数,当 θk 给定时,等式右侧是 Xi 的函数。假设 Xi 已知,记
- 极大似然估计的求法
对似然函数求导,如果是多维变量就求偏导。在多数情况下,直接求导难于求解,通常借用对数函数。由于对数函数是单调递增的函数,所以 logL(⋅) 与 L(⋅) 有相同的最值点(??)。若 logL(⋅) 的导数存在,即可求该似然函数对各参数的导数,令导数为0求解最值,根据二阶导数判断其为最大值还是最小值。
- 条件概率的极大似然估计证明:
设 P(Y=ck)=θk ,且 ∑Kk=1θk=1 ,得似然函数
(在N个样本中,概率为 θk 的有 ∑Ni=1I(yi=ck) 个)
其对数似然函数:
注意,有约束 ∑Kk=1θk=1 ,根据拉格朗日乘子法,将约束条件代入得
对 θk 求偏导,并令偏导等于零求最值
对 k=1,2,⋯,K 分别求导并相加,得
联立两式得到
- 条件概率的极大似然估计证明
设
P(X(j)=ajl|Y=ck)=θkl,P(X(j)=ajl,Y=ck)=θklθk
,
∑Sjl=1θkl=1
得似然函数
对数似然函数
利用拉格朗日乘子法,加入约束 ∑Sjl=1θkl=1 ,
对 θkl 求偏导,令偏导等于零求最值
对 l=1,2,⋯,Sj 依次求取偏导,求和相加
联立两式,得
4.2贝叶斯估计
为什么要用贝叶斯估计:
极大似然估计可能会出现先验概率和条件概率等于0的情况,此时无法求取后验概率(这句话不一定对)使分类出现偏差0。此时可以采取贝叶斯估计,贝叶斯估计的思想就是在随机变量各个取值的频数上加上一个正数
λ>0
。
先验概率的贝叶斯估计:
此时随机变量Y,Y的可能取值有K种,所以是 Kλ
条件概率的贝叶斯估计:
此时随机变量为特征X,X可能取值有 Sj 种,所以是 Sjλ
当 λ=0 时就是极大似然估计。当 λ=1 时,称为拉普拉斯平滑。
以先验概率
P(Y=ck)
为例,对于
k=1,2,⋯,K
,有
所以先验概率的贝叶斯估计式确实是一种概率分布,同理可证条件概率的贝叶斯估计式。
4.3算法
1.求先验概率及条件概率,可用极大似然估计或贝叶斯估计
2.求取后验概率
3.取后验概率最大的输出为分类