朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入输出的联合概率分布;然后基于此模型。对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。
1,朴素贝叶斯法的学习与分类
设输入空间 χ 是n维向量的集合,输出空间为类标记集合 γ={c1,c2,...,cK} .输入特征向量为x,输出为类标记y。X是在输入空间上的随机变量,Y是在输出空间上的随机变量。P(X,Y)是X和Y的联合概率分布,训练数据集
朴素贝叶斯通过训练数据集联合概率分布P(X,Y)。具体的,学习以下先验概率及条件概率,先验概率分布
朴素贝叶斯法对条件概率分布做了条件独立性的假设。
朴素贝叶斯法分类时,对给定的输入x,通过学习到的模型计算后验概率分布 P(Y=ck|X=x) ,将后验概率最大的类作为x的类输出。后验概率计算根据贝叶斯定理;
2.朴素贝叶斯法的参数估计
(1)极大似然估计
在朴素贝叶斯法中,学习意味着估计 P(Y=ck) 和 P(X(j)=xj|Y=cj) .可以用极大似然估计法估计相应的概率,先验概率的极大似然估计为
(2)学习与分类算法
朴素贝叶斯算法
输入:训练数据
T={(x1,y1),(x2,y2),...,(xN,yN)}
,其中
xi=(x(1)i,x(2)i,...,x(n)i)T
,
x(j)i
是第i个样本的第j个特征。
输出:实例x的分类
(1)计算先验概率及条件概率
(2)对于给定的实例 x=(x(1),x(2),...,x(n))T ,计算
(3)确定实例x的类
(3)贝叶斯估计
用极大似然估计可能会出现所要估计的概率值为0的估计。这时会影响到后验概率的计算结果,使分类产生误差,解决这些问题的方法是采用贝叶斯估计。
条件概率的贝叶斯估计是
先验概率的贝叶斯估计为