几个重要公式
条件概率
乘法公式
全概率公式
如果事件组 B1,B2,⋯ 满足
B1,B2,⋯ 两两互斥,即 Bi∩Bj=ϕ,i≠j,i,j=1,2,⋯ ,且 P(Bi)>0,I=1,2,⋯ ;
B1∪B2∪⋯=Ω ,则称事件组 B1,B2,⋯ 是样本空间 Ω 的一个划分。
设 B1,B2,⋯ 是样本空间 Ω 的一个划分, A 为任一事件,则全概率公式为
全概率公式的意义在于,当直接计算 P(A) 较为困难,而 P(Bi),P(A|Bi)(i=1,2,⋯) 的计算较为简单时,可以利用全概率公式计算 P(A) 。
贝叶斯公式
Bi
常被视为导致试验结果
A
发生的“原因”,
朴素贝叶斯法
朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入
基本方法
训练数据集
但是条件概率分布 P(X=x|Y=ck) 有指数级数量的参数,其估计实际是不可行的,因此需要条件独立性假设来减小计算量,即
条件独立性假设等于是说用于分类的特征在类确定的条件下都是条件独立的。
朴素贝叶斯法分类时,对给定的输入
x
,通过学习到的模型计算后验概率分布
后验概率根据贝叶斯定理计算
朴素贝叶斯分类器可以表示为
分母对任意的类别 ck 都是相同的,所以
对于数值型的特征,需要先确定特征的分布(如高斯分布);对于离散型的特征,可以选择多项分布,泊松分布等,然后估计分布的参数,从而求得 P(X(j)=x(j)|Y=ck) 。
参数估计
极大似然估计
在朴素贝叶斯法中,学习意味着估计 P(Y=ck) 和 P(X(j)=x(j)|P(Y=ck)) 。先验概率 P(Y=ck) 的极大似然估计是
设第
j
个特征
若为连续特征则可以考虑概率密度函数。
贝叶斯估计
上述极大似然估计中,估计条件概率时分子可能出现等于0的情况,这时会影响到后验概率的计算结果,使分类产生偏差。因此,引入了贝叶斯估计。
条件概率的贝叶斯估计
其中 λ≥0 。当 λ=0 时,贝叶斯估计退化为极大似然估计。当 λ=1 时,这时称为拉普拉斯平滑(Laplace smoothing)。
先验概率的贝叶斯估计为
K 为类别的数量。
贝叶斯网络
把某个研究系统中涉及的随机变量,根据是否条件独立绘制在有向无环图(DAG)中,就形成了贝叶斯网络(Bayesian network),亦称”信念网”(belief network)。
简单的贝叶斯网络
贝叶斯网络的形式化定义
一个贝叶斯网
B
由结构
一个特殊的贝叶斯网络
节点间形成一条链式网络,称为马尔科夫模型,其中 Ai+1 只与 Ai 有关,与 A1,⋯,Ai−1 无关,即
三个变量之间的典型依赖关系
其联合概率密度为
P(a,b,c)=P(c)P(a|c)P(b|c)
,从而
P(a,b,c)P(c)=P(a|c)P(b|c)
,因此
P(a,b|c)=P(a|c)P(b|c)
。即,在
c
给定的条件下,
其联合概率密度为 P(a,b,c)=P(a)P(c|a)P(b|c)
即,在
c
给定的条件下,
即在
c
未知的条件下,
训练
大部分情况下,网络的构造需要专家经验。一旦网络结构已知,即属性间的依赖关系已知,则贝叶斯网络的学习过程相对简单,只需通过对训练样本”计数”,估计出每个节点的条件概率表即可。
参考
[1] 机器学习. 周志华
[2] 统计学习方法. 李航