基本概念
贝叶斯决策论:
对于分类任务来说,在所有的相关概率都已知的理想情形下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记。
基本原理
假设有
N
中可能的类别标记,即
R(ci∣x)=∑j=1NλijP(cj∣x)
目标
找到一个判定准则
h:X↦Y
以最小化总体风险
R(h)=Ex[R(h(x)∣x)]
贝叶斯判定准则
为最小化总体风险,只需要在每个样本上选择那个可以使得条件风险
R(c∣x)
最小的类别标记。即:
h∗(x)=argminc∈YR(c∣x)
此时 h∗ 被称为贝叶斯最优分类器,与之对应的总体风险 R(h∗) 被称为贝叶斯风险。 1−R(h∗) 反映了分类器所能达到的最好性能,即通过机器学习所能产生的模型精度的理论上限。
误判损失
若将误判损失写成:
λij={01,,if i=j;otherwise
则此时条件风险为:
R(c∣x)=1−P(c∣x)
最小化分类错误率的贝叶斯最优分类器为:
h∗(x)=argmaxc∈YP(c∣x)
即对于每个样本 x 选择能够使得后验概率 P(c∣x) 最大的类别标记。
贝叶斯公式和后验概率
利用贝叶斯判定准则来最小化决策风险,首先要获得后验概率 P(c∣x) ,但是这通常在现实任务中难以获得。
两种策略
判别式模型
给定 x ,可通过直接建模 P(c∣x) 来预测 c 。
生成式模型
先对联合概率分布
可以使用贝叶斯公式:
P(c∣x)=P(c)P(x∣c)P(x)