《机器学习》小白Python学习笔记(九) ————第七章 贝叶斯分类器
引言
说到贝叶斯分类器,必然离不开的是贝叶斯公式:
P ( B i ∣ A ) = P ( A ∣ B i ) P ( B i ) ∑ j = 1 n P ( A ∣ B j ) P ( B j ) , i = 1 , 2 , ⋯ , n P\left(B_{i} \mid A\right)=\frac{P\left(A \mid B_{i}\right) P\left(B_{i}\right)}{\sum_{j=1}^{n} P\left(A \mid B_{j}\right) P\left(B_{j}\right)}, \quad i=1,2, \cdots, n P(Bi∣A)=∑j=1nP(A∣Bj)P(Bj)P(A∣Bi)P(Bi),i=1,2,⋯,n
等式右侧的分母其实是根据全概率公式将 P ( A ) P(A) P(A)展开,分子实际是根据条件概率公式将 P ( A B ) P(AB) P(AB)展开。
在贝叶斯分类器中我们通常表示为:
P ( C ∣ x ) = P ( x ∣ C ) P ( C ) ∑ j = 1 n P ( x ∣ C ) P ( C ) , i = 1 , 2 , ⋯ , n P\left(C \mid \boldsymbol x\right)=\frac{P\left(\boldsymbol x \mid C\right) P\left(C\right)}{\sum_{j=1}^{n} P\left(\boldsymbol x \mid C\right) P\left(C\right)}, \quad i=1,2, \cdots, n P(C∣x)=∑j=1nP(x∣C)P(C)P(x∣C)P(C),i=1,2,⋯,n
其中,我们将 P ( C ) P\left(C\right) P(C)称为先验概率,即在事情发生之前,根据以往的经验等推测未来此事件发生的概率;将 P ( θ ∣ x ) P\left(\theta\right|\boldsymbol x) P(θ∣x)称为后验概率,即在事情发生之后,分析由各种原因导致发生的概率。
贝叶斯分类器就是根据先验概率利用贝叶斯公式计算出各种分类的后验概率,选择最大的后验概率所对应的分类结果。
贝叶斯决策论
贝叶斯决策论是在概率框架下基于已知的相关概率和误判损失来选择最优分类的决策方法。
假设样本集共有N种类别,即 c 1 , c 2 , ⋯ , c N {c_1,c_2,\cdots,c_N} c1,c2,⋯,cN, λ i j \lambda_{ij} λij是将一个本来标记为 c i c_i ci的样本错误标记成 c j c_j cj所产生的损失, P ( c j ∣ x ) P\left(c_j \mid \boldsymbol x\right) P