文章目录
第三节 贝叶斯决策(统计决策理论)
前提:已知先验概率、类条件概率
分类可以看作一种决策,即根据观测对样本做出应归属某一类的决策。
-
实际应用中的不同情况
-
不知道各类的先验概率
-
假设各类的先验概率相等
-
最小最大决策准则
-
-
难于确定误判的代价
- 最小错误率决策准则
-
某一种错误较另一种错误更重要
- 最小风险决策准则
- 限定错误率的两类判别决策准则
-
3.1 随机模式分类
-
模式的类型:
- 确定型:一定条件下必然发生或不发生(信息确定、充分)
- 随机型:从已观察到的模式无法精确预知其类别(信息不充分、需分析统计规律)
-
贝叶斯公式:设 ω 1 \omega_1 ω1 代表正常细胞, ω 2 \omega_2 ω2 代表异常细胞(癌细胞)。
P ( X , ω i ) = P ( X ∣ ω i ) P ( ω i ) = P ( ω i ∣ X ) P ( X ) P ( X ) = ∑ j = 1 c P ( X ∣ ω j ) P ( ω j ) c 表 示 总 类 别 数 \color{red}P(X,\omega_i)=P(X|\omega_i)P(\omega_i)=P(\omega_i|X)P(X)\\ P(X)=\sum\limits_{j=1}^{c} P(X|\omega_j)P(\omega_j)\quad c表示总类别数 P(X,ωi)=P(X∣ωi)P(ωi)=P(ωi∣X)P(X)P(X)=j=1∑cP(X∣ωj)P(ωj)c表示总类别数- 先验概率:预先已知的或者可以估计的模式识别系统位于某种类型的概率。 P ( ω 1 ) , P ( ω 2 ) P(\omega_1),P(\omega_2) P(ω1),P(ω2) 称为先验概率,根据统计资料估计得到,
P ( ω 1 ) + P ( ω 2 ) = 1 P ( ω 1 ) > P ( ω 2 ) P(\omega_1)+P(\omega_2)=1\\ P(\omega_1)>P(\omega_2) P(ω1)+P(ω2)=1P(ω1)>P(ω2)
-
类条件概率:系统位于某种类型条件下模式样本 x x x 出现的概率。 P ( x ∣ ω 1 ) , P ( x ∣ ω 2 ) P(x|\omega_1),P(x|\omega_2) P(x∣ω1),P(x∣ω2) 称为类条件概率,根据训练样本统计分析得到,
-
后验概率:系统在某个具体的模式样本 x x x 条件下位于某种类型的概率,可根据贝叶斯公式计算,用作分类判决的依据。 P ( ω 1 ∣ x ) , P ( ω 2 ∣ x ) P(\omega_1|x),P(\omega_2|x) P(ω1∣x),P(ω2∣x) 称为后验概率,
P ( ω 1 ∣ x ) + P ( ω 2 ∣ x ) = 1 P(\omega_1|x)+P(\omega_2|x)=1 P(ω1∣x)+P(ω2∣x)=1 -
联合概率: P ( X , ω i ) P(X,\omega_i) P(X,ωi)
-
贝叶斯决策:在类条件概率密度和先验概率已知的情况下,通过贝叶斯公式比较样本属于两类的后验概率,为使总体错误率最小,将类别决策为后验概率大的一类。
P ( ω i ∣ X ) = P ( X ∣ ω i ) P ( ω i ) P ( X ) \color{red}P(\omega_i|X)=\dfrac{P(X|\omega_i)P(\omega_i)}{P(X)}\\ P(ωi∣X)=P(X)P(X∣ωi)P(ωi)
3.1.1 最小错误率贝叶斯决策
-
分类错误:
-
模式特征 X X X: d d d 维特征向量 x = [ x 1 , x 2 , . . . , x d ] T x=[x_1,x_2,...,x_d]^T x=[x1,x2,...,xd]T
-
分类错误的概率 P ( e ∣ x ) P(e|x) P(e∣x):是模式特征 X X X 的函数
P ( e ∣ x ) = { P ( ω 2 ∣ x ) , x ∈ ω 1 P ( ω 1 ∣ x ) , x ∈ ω 2 P(e|x)=\begin{cases} P(\omega_2|x),x\in \omega_1\\P(\omega_1|x),x\in \omega_2 \end{cases} P(e∣x)={P(ω2∣x),x∈ω1P(ω1∣x),x∈ω2 -
平均错误率 P ( e ) P(e) P(e):是随机函数 P ( e ∣ x ) P(e|x) P(e∣x) 的期望
P ( e ) = ∫ P ( e ∣ x ) P ( x ) d x P(e)=\int P(e|x)P(x)\;dx P(e)=∫P(e∣x)P(x)dx
-
-
最小错误率:
若 P ( ω k ∣ x ) = max i = 1 , 2 P ( ω i ∣ x ) , 则 x ∈ ω k \color{red}若\;P(\omega_k|x)=\max\limits_{i=1,2}P(\omega_i|x),则\; x\in \omega_k 若P(ωk∣x)=i=1,2maxP(ωi∣x),则x∈ωk
例题 \color{White}\colorbox{Fuchsia}{例题} 例题:以两类问题(癌细胞与正常细胞的分类)为例。解:假设根据某种分类规则,模式(特征)空间被分成两个部分(以 H H H 为分界面) R 1 R_1 R1 中的样本被分为第一类, R 2 R_2 R2 中的样本被分为第二类。
已知先验概率 P ( ω 1 ) , P ( ω 2 ) P(\omega_1),P(\omega_2) P(ω1),P(ω2),根据数据得到类条件概率 P ( x ∣ ω 1 ) , P ( x ∣ ω 2 ) P(x|\omega_1),P(x|\omega_2) P(x∣ω1),P(x∣ω2)
利用贝叶斯公式得到后验概率 P ( ω 1 ∣ x ) , P ( ω 2 ∣ x ) P(\omega_1|x),P(\omega_2|x) P(ω1∣x),P(ω2∣x)
当 P ( ω 1 ∣ x ) = P ( ω 2 ∣ x ) P(\omega_1|x)=P(\omega_2|x) P(ω1∣x)=P(ω2∣x) 时的分界线称为决策边界或分类线。
- 计算错误率:
- 第一类样本分类错误率: ∫ R 2 P ( x ∣ ω 1 ) P ( ω 1 ) d x \int_{\color{red}{R_2}} P(x|\omega_1)P(\omega_1)\;dx ∫R2P(x∣ω1)P(ω1)dx
- 第二类样本分类错误率: ∫ R 1 P ( x ∣ ω 2 ) P ( ω 2 ) d x \int_{\color{red}{R_1}} P(x|\omega_2)P(\omega_2)\;dx ∫R1P(x∣ω2)P(ω2)dx
- 平均分类出错率:
P ( e ) = ∫ R 2 P ( x ∣ ω 1 ) P ( ω 1 ) + ∫ R 1 P ( x ∣ ω 2 ) P ( ω 2 ) d x = ∫ R 2 P ( ω 1 ∣ x ) P ( x ) + ∫ R 1 P ( ω 2 ∣ x ) P ( x ) d x 平 均 分 类 出 错 率 P ( ω 1 ) = ∫ R 2 P ( ω 1 ∣ x ) P ( x ) + ∫ R 1 P ( ω 1 ∣ x ) P ( x ) d x 全 概 率 公 式 P ( e ) = P ( ω 1 ) + ∫ R 1 ( P ( ω 2 ∣ x ) − P ( ω 1 ∣ x ) ) P ( x ) d x \begin{aligned} P(e)&=\int_{\color{red}{R_2}} P(x|\omega_1)P(\omega_1)+\int_{\color{red}{R_1}} P(x|\omega_2)P(\omega_2)\;dx\\ &=\int_{\color{red}{R_2}} P(\omega_1|x)P(x)+\int_{\color{red}{R_1}} P(\omega_2|x)P(x)\;dx\quad 平均分类出错率\\ P(\omega_1)&=\int_{\color{red}{R_2}} P(\omega_1|x)P(x)+\int_{\color{red}{R_1}} P({\color{red}\omega_1|x})P(x)\;dx\quad 全概率公式\\ P(e)&=P(\omega_1)+\int_{\color{red}{R_1}} (P(\omega_2|x)-P({\color{red}\omega_1|x}))P(x)\;dx \end{aligned} P(e)P(ω1)P(e)=∫R2P(x∣ω1)P(ω1)+∫R1P(x∣ω2)P(ω2)dx=∫R2P(ω1∣x)P(x)+∫R1P(ω2∣x)P(x)dx平均分类出错率=∫R2P(ω1∣x)P(x)+∫R1P(ω1∣x)P(x)dx全概率公式=P(ω1)+∫R1(P(ω2∣x)−P(ω1∣x))P(x)dx
- 当 R 1 R_1 R1 中的样本满足 P ( ω 2 ∣ x ) < P ( ω 1 ∣ x ) P(\omega_2|x)<P(\omega_1|x) P(ω2∣x)<P(ω1∣x) 时, P ( e ) P(e) P(e) 取得最小值。即当 P ( ω 2 ∣ x ) = P ( ω 1 ∣ x ) P(\omega_2|x)=P(\omega_1|x) P(ω2∣x)=P(ω1∣x) 时,错误率最小。
- 计算错误率:
3.1.2 最小风险贝叶斯决策
将不同类分错造成的后果的严重性并不总是一样的,于是要设计分类规则使得损失(风险)最低
-
决策论的概念:
-
样本 x x x: d d d 维随机向量 x ⃗ = [ x 1 , x 2 , . . . , x d ] T \vec{x}=[x_1,x_2,...,x_d]^T x=[x1,x2,...,xd]T(构成自然空间)
-
类别 w w w: Ω = { ω 1 , ω 2 , . . . , ω c } \Omega=\{\omega_1,\omega_2,...,\omega_c\} Ω={ω1,ω2,...,ωc}(构成状态空间 Ω \Omega Ω )
-
决策 α \alpha α:分类时所采取的决定。决策 α j \alpha_j αj 表示将模式 x ⃗ \vec{x} x 指判为 ω j \omega_j ωj 或者拒判。(对随机向量 x ⃗ \vec{x} x 可能采取的决策组成的集合构成决策空间 { α 1 , α 2 , . . . , α k } \{\alpha_1,\alpha_2,...,\alpha_k \} {α1,α2,...,αk})
注意: k k k 不一定等于 c c c
-
-
决策表:
-
损失函数:对于实际状态为 ω j \omega_j ωj 的向量 x ⃗ \vec{x} x,采取决策 α i \alpha_i αi 所带来的损失
λ j i = λ ( α i , ω j ) , i = 1 , . . . , k , j = 1 , . . . , c {\color{red}\lambda_{ji} = \lambda(\alpha_i,\omega_j)},\quad i=1,...,k,\quad j = 1,...,c λji=λ(αi,ωj),i=1,...,k,j=1,...,c
若希望尽可能避免将状态 ω j \omega_j ωj 错判为 ω i \omega_i ωi (即该分类错误损失较大),则可以将相应的 λ j i \lambda_{ji} λji 的值调大一些。 -
决策表:决策表的形成是困难的,需要大量的领域知识。决策表不同会导致决策结果的不同。
-
-
最小风险:把各种分类错误引起的损失考虑进去的贝叶斯决策法则,以使得期望的损失最小。
-
样本 x x x 的期望损失:通过对属于不同状态 ω j \omega_j ωj 的后验概率 P ( ω j ∣ x ) P(\omega_j|x) P(ωj∣x) 采取决策 α i \alpha_i αi 的期望损失(期望风险)
R ( α i ∣ x ) = E [ λ j i ∣ x ] = ∑ j = 1 c λ j i P ( ω j ∣ x ) , i = 1 , . . , k R(\alpha_i|x)=E[\lambda_{ji}|x]=\sum\limits_{j=1}^c \lambda_{ji}P(\omega_j|x),\qquad i=1,..,k R(αi∣x)=E[λji∣x]=j=1∑cλjiP(ωj∣x),i=1,..,k -
最小风险:
若 R ( α k ∣ x ) = min i = 1 , . . . , c R ( α i ∣ x ) , 则 α = α k \color{red}若\;R(\alpha_k|x)=\min\limits_{i=1,...,c}R(\alpha_i|x),则\; \alpha=\alpha_k 若R(αk∣x)=i=1,...,cminR(αi∣x),则α=αk
-
-
最小风险和最小错误率贝叶斯决策法则的关系:
- 两类最小错误率贝叶斯决策规则
P ( ω 1 ∣ x ) ≷ P ( ω 2 ∣ x ) , ∋ x ∈ { ω 1 ω 2 \color{red}\;P(\omega_1|x)\gtrless P(\omega_2|x), \;\ni x\in \begin{cases}\omega_1\\\omega_2 \end{cases} P(ω1∣x)≷P(ω2∣x),∋x∈{ω1ω2 - 多类最小错误率贝叶斯决策规则
P ( ω k ∣ x ) = max i = 1 , . . . , c P ( ω i ∣ x ) , ∋ x ∈ ω k \color{red}\;P(\omega_k|x)=\max\limits_{i=1,...,c}P(\omega_i|x),\;\ni x\in \omega_k P(ωk∣x)=i=1,...,cmaxP(ωi∣x),∋x∈ωk - 多类最小风险贝叶斯决策规则
R ( α k ∣ x ) = min i = 1 , . . . , c ∑ j = 1 c λ j i P ( ω j ∣ x ) , ∋ α = α k \color{red}\;R(\alpha_k|x)=\min\limits_{i=1,...,c}\sum\limits_{j=1}^c \lambda_{ji}P(\omega_j|x),\;\ni \alpha=\alpha_k R(αk∣x)=i=1,...,cminj=1∑cλjiP(ωj∣x),∋α=αk - 关系:当损失函数为 0 − 1 0-1 0−1 损失函数 Cannot read properties of undefined (reading 'type') 时,最小风险贝叶斯决策就变成了最小错误率贝叶斯决策。即后者时前者的一个特例。
- 两类最小错误率贝叶斯决策规则
3.2 实际应用中的不同情况
3.2.1 最小最大决策准则
不知道各类的先验概率 P ( ω i ) P(\omega_i) P(ωi),或所用先验概率与实际有误差
-
引入:对于最小风险贝叶斯决策,判定的平均风险为
R = ∫ R 1 [ λ 11 P ( x ∣ ω 1 ) P ( ω 1 ) + λ 21 P ( x ∣ ω 2 ) P ( ω 2 ) ] d x + ∫ R 2 [ λ 22 P ( x ∣ ω 2 ) P ( ω 2 ) + λ 12 P ( x ∣ ω 1 ) P ( ω 1 ) ] d x R=\int\limits_{R_1}\left[\lambda_{11}P(x|\omega_1)P(\omega_1)+\lambda_{21}P(x|\omega_2)P(\omega_2)\right]dx+\int\limits_{R_2}\left[\lambda_{22}P(x|\omega_2)P(\omega_2)+\lambda_{12}P(x|\omega_1)P(\omega_1)\right]dx\\ R=R1∫[λ11P(x∣ω1)P(ω1)+λ21P(x∣ω2)P(ω2)]dx+R2∫[λ22P(x∣ω2)P(ω2)+λ12P(x∣ω1)P(ω1)]dx
根据条件 P ( ω 2 ) = 1 − P ( ω 1 ) P(\omega_2)=1-P(\omega_1) P(ω2)=1−P(ω1), ∫ R 2 P ( x ∣ ω 1 ) d x = 1 − ∫ R 1 P ( x ∣ ω 1 ) d x \int\limits_{R_2}P(x|\omega_1)dx=1-\int\limits_{R_1}P(x|\omega_1)dx R2∫P(x∣ω1)dx=1−R1∫P(x∣ω1)dx 化简得
R = ( λ 22 + ( λ 21 − λ 22 ) ∫ R 1 P ( x ∣ ω 2 ) d x ) + P ( ω 1 ) ⋅ ( ( λ 11 − λ 22 ) + ( λ 12 − λ 11 ) ∫ R 2 P ( x ∣ ω 1 ) d x − ( λ 21 − λ 22 ) ∫ R 1 P ( x ∣ ω 2 ) d x ) = a + b ⋅ P ( ω 1 ) \begin{aligned} R&=\left(\lambda_{22}+(\lambda_{21}-\lambda_{22})\int\limits_{R_1}P(x|\omega_2)\;dx\right)\\ &+P(\omega_1)\cdot \left((\lambda_{11}-\lambda_{22})+(\lambda_{12}-\lambda_{11})\int\limits_{R_2}P(x|\omega_1)dx-(\lambda_{21}-\lambda_{22})\int\limits_{R_1}P(x|\omega_2)dx \right)\\ &=\color{red}a+b\cdot P(\omega_1) \end{aligned} R=⎝⎛λ22+(λ21−λ22)R1∫P(x∣ω2)dx⎠⎞+P(ω1)⋅⎝⎛(λ11−λ22)+(λ12−λ11)R2∫P(x∣ω1)dx−(λ21−λ22)R1∫P(x∣ω2)dx⎠⎞=a+b⋅P(ω1)- 发现:固定类条件概率,误判代价,以及分界面(即划分区域 R 1 , R 2 R_1,R_2 R1,R2)时,平均风险 R R R 是先验概率 P ( ω 1 ) P(\omega_1) P(ω1) 的线性函数。
-
最小最大决策:
在 [ 0 , 1 ] [0,1] [0,1] 区间内,对先验概率 P ( ω 1 ) P(\omega_1) P(ω1) 取若干个不同的值,按最小风险决策确定相应的决策域,从而计算相应的最小风险 R ∗ R^* R∗,得出最小贝叶斯风险与先验概率的关系曲线
R = a + b P ( ω 1 ) R=a+bP(\omega_1) R=a+bP(ω1) 线性:决策域固定
R ∗ → P ( ω 1 ) R^*\rightarrow P(\omega_1) R∗→P(ω1) 非线性:不同 P ( ω 1 ) P(\omega_1) P(ω1) 决策域不同
-
线段 C D CD CD 表示:对应先验概率为 P A ( ω 1 ) P_A(\omega_1) PA(ω1) 的最小风险而确定的判决面固定时,当 P ( ω 1 ) P(\omega_1) P(ω1) 变化, R R R 而形成的变化。是一个在 [ a , a + b ] [a,a+b] [a,a+b] 之间的线性函数。
- 平均损失要比最佳的判决面大许多
-
线段 C ′ D ′ C'D' C′D′ 表示:按照 P B ( ω 1 ) P_B(\omega_1) PB(ω1) 下最小风险决策规则。
-
保证在不调整判决面的情况下,不管 P ( ω 1 ) P(\omega_1) P(ω1) 如何变化,最大风险都为最小
按最坏的情况考虑、保守但稳妥的做法
-
-
-
分类器:用似然比表示决策规则
- 第一类风险: R ( α 1 ∣ x ) = λ 11 P ( x ∣ ω 1 ) P ( ω 1 ) + λ 21 P ( x ∣ ω 2 ) P ( ω 2 ) R(\alpha_1|x)=\lambda_{11}P(x|\omega_1)P(\omega_1)+\lambda_{21}P(x|\omega_2)P(\omega_2) R(α1∣x)=λ11P(x∣ω1)P(ω1)+λ21P(x∣ω2)P(ω2)
- 第二类风险: R ( α 2 ∣ x ) = λ 12 P ( x ∣ ω 1 ) P ( ω 1 ) + λ 22 P ( x ∣ ω 2 ) P ( ω 2 ) R(\alpha_2|x)=\lambda_{12}P(x|\omega_1)P(\omega_1)+\lambda_{22}P(x|\omega_2)P(\omega_2) R(α2∣x)=λ12P(x∣ω1)P(ω1)+λ22P(x∣ω2)P(ω2)
- 分类器:若
R
(
α
1
∣
x
)
≷
R
(
α
2
∣
x
)
R(\alpha_1|x)\gtrless R(\alpha_2|x)
R(α1∣x)≷R(α2∣x),则
x
∈
{
ω
1
ω
2
x\in \begin{cases}\omega_1\\\omega_2 \end{cases}
x∈{ω1ω2
- 化简得到:若 P ( x ∣ ω 1 ) P ( x ∣ ω 2 ) ≷ ( λ 21 − λ 22 ) ( 1 − P ( ω 1 ) ) ( λ 12 − λ 11 ) P ( ω 1 ) \dfrac{P(x|\omega_1)}{P(x|\omega_2)} \gtrless \dfrac{(\lambda_{21}-\lambda_{22})(1-P(\omega_1))}{(\lambda_{12}-\lambda_{11})P(\omega_1)} P(x∣ω2)P(x∣ω1)≷(λ12−λ11)P(ω1)(λ21−λ22)(1−P(ω1)),则 x ∈ { ω 1 ω 2 x\in \begin{cases}\omega_1\\\omega_2 \end{cases} x∈{ω1ω2
- 其中 ( λ 21 − λ 22 ) ( 1 − P ( ω 1 ) ) ( λ 12 − λ 11 ) P ( ω 1 ) \dfrac{(\lambda_{21}-\lambda_{22})(1-P(\omega_1))}{(\lambda_{12}-\lambda_{11})P(\omega_1)} (λ12−λ11)P(ω1)(λ21−λ22)(1−P(ω1)) 称为阈值(将最大的最小风险值的先验概率 P ∗ ( ω 1 ) P^*(\omega_1) P∗(ω1) 代入), P ( x ∣ ω 1 ) P ( x ∣ ω 2 ) \dfrac{P(x|\omega_1)}{P(x|\omega_2)} P(x∣ω2)P(x∣ω1) 称为似然比。
-
设计过程:
-
⨀ \color{red}\bigodot ⨀ 1. 按最小损失准则找出对应于 [ 0 , 1 ] [0,1] [0,1] 中的各个不同值的 P ( ω 1 ) P(\omega_1) P(ω1) 的最佳决策面,计算相应的最小平均损失,得到曲线函数
-
⨀ \color{red}\bigodot ⨀ 2. 找出使 R R R 最大的 P ∗ ( ω 1 ) P^*(\omega_1) P∗(ω1) ,最后运用最小风险决策规则构造分类器
若 P ( x ∣ ω 1 ) P ( x ∣ ω 2 ) ≷ ( λ 21 − λ 22 ) ( 1 − P ∗ ( ω 1 ) ) ( λ 12 − λ 11 ) P ∗ ( ω 1 ) , ∋ x ∈ { ω 1 ω 2 若\dfrac{P(x|\omega_1)}{P(x|\omega_2)} \gtrless \dfrac{(\lambda_{21}-\lambda_{22})(1-P^*(\omega_1))}{(\lambda_{12}-\lambda_{11})P^*(\omega_1)},\;\ni x\in \begin{cases}\omega_1\\\omega_2 \end{cases} 若P(x∣ω2)P(x∣ω1)≷(λ12−λ11)P∗(ω1)(λ21−λ22)(1−P∗(ω1)),∋x∈{ω1ω2
-
3.2.2 限定错误率的两类判别决策准则
最小错误率贝叶斯决策使得两类错判的总概率最小
最小风险贝叶斯决策使得两类错判的 总风险(总代价) 最小
实际中,有时要求限制某一类错误率不大于某个常数而使另一类错误率尽可能地小
某一种错误较另一种错误更重要,需要优先满足某类错误
-
目标:
min R 1 , R 2 P 1 ( e ) , ∋ P 2 ( e ) = ε 0 其 中 P 1 ( e ) = ∫ R 2 P ( x ∣ ω 1 ) P ( ω 1 ) d x = 1 − ∫ R 1 P ( x ∣ ω 1 ) P ( ω 1 ) d x P 2 ( e ) = ∫ R 1 P ( x ∣ ω 2 ) P ( ω 2 ) d x \color{red}\min\limits_{R_1,R_2} P_1(e),\ni\; P_2(e)=\varepsilon_0\\ \begin{aligned} 其中 P_1(e)&=\int_{\color{red}{R_2}} P(x|\omega_1)P(\omega_1)\;dx=1-\int_{\color{red}{R_1}} P(x|\omega_1)P(\omega_1)\;dx\\ P_2(e)&=\int_{\color{red}{R_1}} P(x|\omega_2)P(\omega_2)\;dx \end{aligned} R1,R2minP1(e),∋P2(e)=ε0其中P1(e)P2(e)=∫R2P(x∣ω1)P(ω1)dx=1−∫R1P(x∣ω1)P(ω1)dx=∫R1P(x∣ω2)P(ω2)dx -
解决:拉格朗日乘子法
- 转化约束极值问题:
min γ = P 1 ( e ) + β ( P 2 ( e ) − ε 0 ) , β 为 拉 格 朗 日 乘 子 \min\gamma=P_1(e)+\beta\;(P_2(e)-\varepsilon_0),\qquad \beta 为拉格朗日乘子 minγ=P1(e)+β(P2(e)−ε0),β为拉格朗日乘子 - 代入已知:
γ = ∫ R 2 P ( x ∣ ω 1 ) P ( ω 1 ) d x + β ( ∫ R 1 P ( x ∣ ω 2 ) P ( ω 2 ) d x − ε 0 ) = ( 1 − β ε 0 ) + ∫ R 1 [ β ⋅ P ( x ∣ ω 2 ) P ( ω 2 ) − P ( x ∣ ω 1 ) P ( ω 1 ) ] d x \begin{aligned} \gamma&=\int_{R_2}P(x|\omega_1)P(\omega_1)dx+\beta\;(\int_{R_1}P(x|\omega_2)P(\omega_2)\;dx-\varepsilon_0) \\ &=(1-\beta\varepsilon_0)+\int_{R_1}\left[\beta\cdot P(x|\omega_2)P(\omega_2)-P(x|\omega_1)P(\omega_1)\right]\;dx \\ \end{aligned} γ=∫R2P(x∣ω1)P(ω1)dx+β(∫R1P(x∣ω2)P(ω2)dx−ε0)=(1−βε0)+∫R1[β⋅P(x∣ω2)P(ω2)−P(x∣ω1)P(ω1)]dx - 要使
γ
\gamma
γ 最小,即在
R
1
R_1
R1 区域中,使
β
⋅
P
(
x
∣
ω
2
)
P
(
ω
2
)
−
P
(
x
∣
ω
1
)
P
(
ω
1
)
<
0
\beta\cdot P(x|\omega_2)P(\omega_2)-P(x|\omega_1)P(\omega_1)<0
β⋅P(x∣ω2)P(ω2)−P(x∣ω1)P(ω1)<0,故
P ( x ∣ ω 1 ) P ( x ∣ ω 2 ) > β ⋅ P ( ω 1 ) P ( ω 2 ) = β ′ \dfrac{P(x|\omega_1)}{P(x|\omega_2)}>\beta\cdot \dfrac{P(\omega_1)}{P(\omega_2)}=\beta' P(x∣ω2)P(x∣ω1)>β⋅P(ω2)P(ω1)=β′
- 转化约束极值问题:
-
决策规则(Neyman—Pearson 或 N-P 判决):
若 P ( x ∣ ω 1 ) P ( x ∣ ω 2 ) ≷ β ′ , ∋ x ∈ { ω 1 ω 2 \color{red}若\dfrac{P(x|\omega_1)}{P(x|\omega_2)}\gtrless \beta',\;\ni x\in \begin{cases}\omega_1\\\omega_2 \end{cases} 若P(x∣ω2)P(x∣ω1)≷β′,∋x∈{ω1ω2
其中阈值 β ′ \beta' β′ 满足 ∂ γ ∂ β = 0 \dfrac{\partial \gamma}{\partial \beta}=0 ∂β∂γ=0,即决策边界使得 ∫ R 1 P ( x ∣ ω 2 ) P ( ω 2 ) d x = ε 0 \int_{{R_1}} P(x|\omega_2)P(\omega_2)\;dx=\varepsilon_0 ∫R1P(x∣ω2)P(ω2)dx=ε0阈值的求解需要已知类条件概率曲线
3.3 其他
- 序贯分类方法:考虑获取特征所花费的代价
- 步骤:先用一部分特征来分类,逐步加入分类特征减少分类损失;并且比较加入特征的花费代价与所降低分类损失的大小