学习理论:预测器-拒绝器多分类弃权学习

目前确定去京大读博了,预计方向是学习理论(Learning Theory)。熟悉我的朋友可能知道,虽然我读研期间的方向主要是联邦学习和推荐系统,但是我也会更新一些理论相关的博客,因为我确实对理论方向比较感兴趣。目前准备10月份左右入学,在这之前接受导师的线上指导开始科研。现在就以以这篇博客做为我PhD科研的开始吧(#^.^#)。

1 导引

弃权学习(learning with abstention) [1]主要是为了使分类器在学习过程中可能出现的误导性或者不正确的信息时(这常被称为“幻觉”),能够对做出预测进行弃权。目前,弃权学习的方法主要可以分为以下几种:

  • 基于置信度的方法(confidence-based methods)。这种方法在预训练模型返回的分数低于某个阈值θ θ 时弃权。
  • 选择性分类(selective classification)。设置一个预测器和一个选择器,并定义被期望的选择或收敛度归一化的选择风险或损失。
  • 预测器-拒绝器公式(predictor-rejector formulation)。同时学习一个预测器和一个拒绝器,它们来自不同的函数族,这种方法显式地考虑了弃权花费c c ,当学习器弃权时将导致大小为c的损失;
  • 基于分数的公式(score-based formulation)。对多分类类别进行增广(多一个拒绝标签类型),当分配给拒绝标签的分数最高时进行弃权。

本文关注预测器-拒绝器公式,也即显式地建模弃权花费的一种方法。那么该如何对多分类弃权问题进行形式化,什么时候适合弃权呢?

我们先来考虑有监督二分类弃权学习场景。在这种场景中标签为Y={1,+1} Y = { − 1 , + 1 } ,样本独立同分布地采样自X×Y X × Y 空间上的固定未知分布D D 。给定实例xX x ∈ X ,学习器若选择对预测x x 的标签进行弃权,则产生一个损失c(x)[0,1]做为代价;否则,使用预测器h h 做出预测h(x)并产生一个标准的0-1损失Iyh(x)0 I y h ( x ) ⩽ 0 (其中y y 为真实标签)。由于随机猜测可以达到12的期望代价,拒绝操作只有在c(x)<12 c ( x ) < 1 2 时是合理的。

我们使用(h,r) ( h , r ) 来建模学习器,其中函数r:XR r : X → R 使得点xX x ∈ X r(x)0 r ( x ) ⩽ 0 时被拒绝,假设h:XR h : X → R 预测未被拒绝的点的标签(体现为h(x) h ( x ) 的正负)。对任意(x,y)X×Y ( x , y ) ∈ X × Y (h,r) ( h , r ) 的弃权损失[2]定义如下:

Labst(h,r,x,y)=Iyh(x)0Ir(x)>0+c(x)Ir(x)0 L abst ( h , r , x , y ) = I y h ( x ) ⩽ 0 I r ( x ) > 0 ⏟ 不弃权 + c ( x ) I r ( x ) ⩽ 0 ⏟ 弃权

假定对于学习器来说弃权花费c(x) c ( x ) 是已知的。在接下来的分析中,我们假设c c 是一个常值函数,但我们的部分分析可以应用于更普遍的情况。

HR R 为两个从X X R R 的函数构成的函数族。此外,我们假设带标签样本S=((x1,y1),,(xm,ym)) S = ( ( x 1 , y 1 ) , ⋯ , ( x m , y m ) ) 独立同分布地采自Dm D m 。则学习问题即为确定一个(h,r)H×R ( h , r ) ∈ H × R 以使得下列期望弃权损失R(h,r) R ( h , r ) 尽可能小:

RLabst(h,r)=E(x,y)DLabst(h,r,x,y) R L abst ( h , r ) = E ( x , y ) ∼ D L abst ( h , r , x , y )

对于大多数假设集而言,优化上述期望弃权损失RLabst(h,r) R L abst ( h , r ) 是难以处理的(intractable)。因此,在这种情况下学习算法需要依赖于代理损失(surrogate loss )。那么,一个重要问题就是什么种类的代理损失能够被用于替代目标弃权损失。直觉上,一个代理损失需要易于优化,且其最小化会导向目标损失的最小化。术语校准(calibration) 就用于定义这样一种损失函数,这种损失函数能够确保风险最小化的预测器能够成为贝叶斯最优分类器。下图直观地展现了校准的代理损失的性质[4](其中目标损失ϕ01 ϕ 01 是二分类中常见的0-1损失,ϕ ϕ 是其代理损失):

出于理论分析目的,直接定义预测器和拒绝器的校准更为方便(基于它们是否是贝叶斯最优的)。因此,我们定义如下关于校准的符号:

定义 1 预测器-拒绝器的校准 我们称(h,r):XR×R ( h , r ) : X → R × R 是校准的,如果RLabst(h,r)=RLabst(h,r) R L abst ( h , r ) = R L abst ( h ∗ , r ∗ )

在本文中,我们分别考虑预测器和拒绝器的校准,这使得我们更好地理解带拒绝分类的难度来自于何处。

定义 2 预测器的分类校准 我们称h:XY h : X → Y 是预测-校准的,如果h(x)=h(x) h ( x ) = h ∗ ( x ) X X 上几乎处处成立。

定义 3 拒绝器的拒绝校准 我们称r:XR r : X → R 是拒绝-校准的,如果sign[r(x)]=sign[r(x)] sign [ r ( x ) ] = sign [ r ∗ ( x ) ] 对所有满足r(x)0 r ∗ ( x ) ≠ 0 xX x ∈ X 成立。

通过这些定义与损失函数Labst L abst 的形式可以看到,如果h h 是预测-校准的且r是拒绝-校准的,则(h,r) ( h , r ) 是校准的。

如下列的代理损失LPB(h,r,x,y) L PB ( h , r , x , y )

LPB(h,r,x,y)=˜ϕ(α[yh(x)r(x)])+cϕ(βr(x)) L PB ( h , r , x , y ) = ϕ ~ ( α [ y h ( x ) − r ( x ) ] ) + c ϕ ( β r ( x ) )

这里˜ϕ ϕ ~ ϕ ϕ I[z0] I [ z ⩽ 0 ] 的凸上界。通过选择适当的参数α,β>0 α , β > 0 ,Cortes等人[2]基于指数损失˜ϕ(z)=ϕ(z)=exp(z) ϕ ~ ( z ) = ϕ ( z ) = exp ⁡ ( − z ) 导出了一个校准的结果。然而,Ni等人[3]指出,这个代理损失只在二分类的情况下可行,想要将这个代理损失扩展到多分类的情况下是有挑战性的,于是转而采用基于置信度分数的方法来处理多分类的情况。

本文作者尝试在多分类的情况下,为预测器-拒绝器框架下的弃权学习定义贝叶斯一致的代理损失[1]。具体地,本文作者引入了一些新的代理损失族并为其证明了强的非渐近和假设集特定的一致性保障。这些保障为弃权损失函数的估计误差提供了代理损失形式的凸上界。

在本文中,我们将在两种不同的设置下讨论预测器-拒绝器弃权代理损失,分别是单阶段两阶段。在单阶段的设置下,预测器和拒绝器同时学习;而在两阶段的设置下(在实际应用中很重要),在第一阶段中预测器使用标准的代理损失(例如交叉熵损失)来学习(例如大的预训练模型),然后在第二阶段预测器被固定,只需要学习拒绝器。

我们会为一些预测器-拒绝器框架中的弃权代理损失L L 证明 (H,R) - 一致性界((H,R) ( H , R ) -consistency bound)。这些不等式给出了关于假设hH h ∈ H 和拒绝器rR r ∈ R 的预测器-拒绝器弃权损失Labst L abst 的上界(以它们的弃权代理损失L L 形式)。它们满足下列形式:

(H,R) - 一致性界

RLabst(h,r)RLabst(H,R)f(RL(h,r)RL(H,R)) R L abst ( h , r ) − R L abst ∗ ( H , R ) ⩽ f ( R L ( h , r ) − R L ∗ ( H , R ) )

这里f f 是非递减函数。因此,当代理估计误差RL(h,r)RL(H,R)减少到ϵ ϵ 时,估计误差(RLabst(h,r)RLabst(H,R)) ( R L abst ( h , r ) − R L abst ∗ ( H , R ) ) 会被f(ϵ) f ( ϵ ) 所界定。在这些界中会出现的一个重要的项为最小化能力差距(minimizability gap),其定义为ML(H,R)=RL(H,R)Ex[infhH,rREy[L(h,r,X,y)X=x]] M L ( H , R ) = R L ∗ ( H , R ) − E x [ inf h ∈ H , r ∈ R E y [ L ( h , r , X , y ) ∣ X = x ] ] 。当损失函数L L 只依赖于h(x)r(x) r ( x ) (对在大多数应用中使用的损失函数都成立),且当H H R R 包括了所有可测函数时,最小化能力差距为0。然而,它对于受限的假设集H H R R 一般是非0的。最小化能力差距能够被近似误差 (approximation error)AL(H,R)=RL(H,R)Ex[infh,rEy[L(h,r,X,y)X=x]] A L ( H , R ) = R L ∗ ( H , R ) − E x [ inf h , r E y [ L ( h , r , X , y ) ∣ X = x ] ] 所界定,这里下界取遍所有可测函数。但是,最小化能力差距是个更好的量并导出更好的理论保障。

2 单阶段预测器-拒绝器代理损失

在多分类情形下,标签Y={1,,n} Y = { 1 , ⋯ , n } n2 n ⩾ 2 )。我们取h(x)=arg maxyY[h(x)]y h ( x ) = arg max y ∈ Y [ h ( x ) ] y 。则类比二分类情形,对于多分类问题,我们同样可以定义如下的预测器-拒绝器弃权损失:

Labst(h,r,x,y)=Ih(x)yIr(x)>0+c(x)Ir(x)0 L abst ( h , r , x , y ) = I h ( x ) ≠ y I r ( x ) > 0 ⏟ 不弃权 + c ( x ) I r ( x ) ⩽ 0 ⏟ 弃权

注意,和之前二分类情况的不同之处在于Iyh(x)0 I y h ( x ) ⩽ 0 变为了Ih(x)y I h ( x ) ≠ y ,这里h(x) h ( x ) 直接输出分类标签。设l l 为在标签Y Y 上定义的0-1多分类损失的代理损失,则我们可以在此基础上进一步定义弃权代理损失L L

L(h,r,x,y)=l(h,x,y)ϕ(αr(x))+ψ(c)ϕ(βr(x))

其中(x,y)X×Y ( x , y ) ∈ X × Y ψ ψ 是非递减函数,ϕ ϕ 是非递增辅助函数(做为tIt0 t ↦ I t ⩽ 0 的上界),α α β β 为正常量。上述的L L 可视为Cortes等人提出的二分类弃权代理损失LPB的多分类推广版本。LPB L PB 可视为将l l 损失设置为基于间隔的二分类损失˜ϕ(yh(x)) ϕ ~ ( y h ( x ) ) ,并设置ψ(t)=t ψ ( t ) = t

Lbin(h,r,x,y)=˜ϕ(yh(x))ϕ(αr(x))+cϕ(βr(x)) L bin ( h , r , x , y ) = ϕ ~ ( y h ( x ) ) ϕ ( − α r ( x ) ) + c ϕ ( β r ( x ) )

最小化带正则项的Lbin L bin ,并使用基于间隔的损失˜ϕ ϕ ~ (例如指数损失˜ϕexp(t)=exp(t) ϕ ~ exp ( t ) = exp ⁡ ( − t ) 以及合页损失˜ϕhinge(t)=max{1t,0} ϕ ~ hinge ( t ) = max { 1 − t , 0 } (合页损失可参见博客《统计学习:线性支持向量机(Pytorch实现) 》)),可以在二分类情形下达到SOTA的结果。然而,我们下面会看到推广到多分类的弃权代理损失L L 对代理损失l的选择施加了更加严格的条件,这将诸如多分类指数损失的代理损失给排除掉了。不过,我们也会看到一些其它的损失函数满足该条件,例如多分类合页损失。下面,为了简便起见,我们主要对ϕ(t)=exp(t) ϕ ( t ) = exp ⁡ ( − t ) 进行分析,尽管相似的分析也可以应用于其它函数ϕ ϕ 。我们先展示负面的结果,排除掉一些弃权代理损失L L ,这些弃权代理损失基于不满足特定条件的损失l

下面,我们假定假设集H H 对称的(symmetric)完备的(complete)。我们称一个假设集H H 是对称的,如果存在一个从X X R R 的函数f f 的族F使得对任意xX x ∈ X ,有{([h(x)]1,,[h(x)]2):hH}={(f1(x),,fn(x)):f1,,fnF} { ( [ h ( x ) ] 1 , ⋯ , [ h ( x ) ] 2 ) : h ∈ H } = { ( f 1 ( x ) , ⋯ , f n ( x ) ) : f 1 , ⋯ , f n ∈ F } 。我们称一个假设集H H 是完备的,如果其产生的分数集合能够张成R R ,也即对任意(x,y)X×Y ( x , y ) ∈ X × Y {[h(x)]y:hH}=R { [ h ( x ) ] y : h ∈ H } = R

定理 1 单阶段代理损失的负面结果 假设H H 是对称的与完备的,且R R 是完备的。若存在xX x ∈ X 使得infhHEy[l(h,X,y)X=x]βψ(1maxyYp(x,y))α inf h ∈ H E y [ l ( h , X , y ) ∣ X = x ] ≠ β ψ ( 1 − max y ∈ Y p ( x , y ) ) α ,则不存在满足属性limt0+Γ(t)=0 lim t → 0 + Γ ( t ) = 0 的非递减函数Γ:R+R+ Γ : R + → R + 使得下列(H,R) ( H , R ) -一致性界成立:对所有hH,rR h ∈ H , r ∈ R 以及任意分布,有

RLabst(h,r)RLabst(H,R)+MLabst(H,R)Γ(RL(h,r)RL(H,R)+ML(H,R)) R L abst ( h , r ) − R L abst ∗ ( H , R ) + M L abst ( H , R ) ⩽ Γ ( R L ( h , r ) − R L ∗ ( H , R ) + M L ( H , R ) )

证明可以采用反证法来完成。若假设此处的(H,R) ( H , R ) - 一致性界是有效的,则蕴含着采用单阶段代理损失学习的pointwise类别最优预测器和类别最优拒绝器会与采用弃权损失所学习的版本对齐。将这些显式的公式纳入代理损失的条件风险分析会导致导数检验的矛盾。

考虑定理 1,为了找到满足(H,R) ( H , R ) - 一致性界的代理损失L L ,我们需要考虑满足以下条件的多分类代理损失l:对任意xX x ∈ X ,对某些ψ ψ (α,β)R2+ ( α , β ) ∈ R + 2

infhHEy[l(h,X,y)X=x]=βψ(1maxyYp(x,y))α inf h ∈ H E y [ l ( h , X , y ) ∣ X = x ] = β ψ ( 1 − max y ∈ Y p ( x , y ) ) α

在二分类的情形下,找到满足这个条件的l l 较为容易,因为maxyYp(x,y) max y ∈ Y p ( x , y ) 也直接地决定了其它的概率。然而,在多分类的情形下,固定maxyYp(x,y) max y ∈ Y p ( x , y ) 后,在取infhHEy[l(h,X,y)X=x] inf h ∈ H E y [ l ( h , X , y ) ∣ X = x ] 时仍然需要考虑其它概率的不同取值。这将导致将二分类框架扩展到多分类的困难。

然而,我们会展示这个必要的条件会被三个常见的多分类代理损失l l 所满足。进一步地,我们将证明基于这三种l l 中任意一种的预测器-拒绝器代理损失L L (H,R) - 一致性界。这三种损失l l 的定义如下(对所有hH h ∈ H (x,y) ( x , y ) ):

  • 平均绝对误差损失(mean absolute error loss)lmae(h,x,y)=1eh(x,y)yYeh(x,y) l mae ( h , x , y ) = 1 − e h ( x , y ) ∑ y ′ ∈ Y e h ( x , y ′ )
  • 约束ρ ρ -合页损失(constrained ρ-hinge loss)lρhinge(h,x,y)=yyϕρhinge(h(x,y)),ρ>0 l ρ − hinge ( h , x , y ) = ∑ y ′ ≠ y ϕ ρ − hinge ( − h ( x , y ′ ) ) , ρ > 0 ,其中ϕρhinge(t)=max{0,1tρ} ϕ ρ − hinge ( t ) = max { 0 , 1 − t ρ } ρ ρ -合页损失,且约束条件yYh(x,y)=0 ∑ y ∈ Y h ( x , y ) = 0
  • ρ ρ -间隔损失(ρ-Margin loss)lρ(h,x,y)=ϕρ(ρh(x,y)) l ρ ( h , x , y ) = ϕ ρ ( ρ h ( x , y ) ) ,其中ρh(x,y)=h(x,y)maxyyh(x,y) ρ h ( x , y ) = h ( x , y ) − max y ′ ≠ y h ( x , y ′ ) 是置信度间隔,ϕρ(t)=min{max{0,1tρ},1},ρ>0 ϕ ρ ( t ) = min { max { 0 , 1 − t ρ } , 1 } , ρ > 0 ρ ρ -间隔损失。

关于这里的间隔损失,可以理解为合页损失的多分类扩展(参见Crammer-Singer损失[4][5]),它旨在最大化下列预测间隔(以3个类别为例):

定理 2 单阶段代理损失的(H,R) ( H , R ) - 一致性界 假设H H 是对称与完备的。则对α=β α = β l=lmae l = l mae ,或者l=lρ l = l ρ ψ(t)=t ψ ( t ) = t ,或者l=lρhinge l = l ρ − hinge ψ(t)=t ψ ( t ) = t ,有下列(H,R) ( H , R ) - 一致性界对hH,rR h ∈ H , r ∈ R 和任意分布成立:

RLabst(h,r)RLabst(H,R)+MLabst(H,R)Γ(RL(h,r)RL(H,R)+ML(H,R)) R L abst ( h , r ) − R L abst ∗ ( H , R ) + M L abst ( H , R ) ⩽ Γ ( R L ( h , r ) − R L ∗ ( H , R ) + M L ( H , R ) )

其中对l=lmae l = l mae Γ(t)=max{2nt,nt} Γ ( t ) = max { 2 n t , n t } ;对l=lρ l = l ρ Γ(t)=max{2t,t} Γ ( t ) = max { 2 t , t } ;对llρhinge l − l ρ − hinge Γ(t)=max{2nt,t} Γ ( t ) = max { 2 n t , t }

该理论为我们在单阶段设置下描述的预测器-拒绝器代理损失提供了有力的保障。该定理证明中使用的技术是新颖的且需要对涉及pointwise类别最优预测器和拒绝器的多种情况的仔细分析。这一分析是具有挑战性的且需要考虑具体损失函数的条件风险与校准差距。该方法由于同时在弃权场景下最小化预测器和拒绝器,整体上不同于Awasthi等人描述的标准场景[6]。下面是当H H R R 包括所有可测函数时定理2的一个直接推论(在下面的情况下最小化能力差距MLabst M L abst ML M L 都会变为0)。

推论 3 单阶段代理损失函数的额外误差界α=β α = β l=lmae l = l mae 或者l=lp l = l p ψ(t)=t ψ ( t ) = t ,或者l=lρhinge l = l ρ − hinge ψ(t)=nt ψ ( t ) = n t ,下列额外误差界(excess error bound) 对所有hHall,rRall h ∈ H all , r ∈ R all (这里Hall H all Rall R all 为所有可测函数构成的集合)以及任意分布成立:

RLabst(h,r)RLabst(Hall,Rall)Γ(RL(h,r)RL(Hall,Rall)) R L abst ( h , r ) − R L abst ∗ ( H all , R all ) ⩽ Γ ( R L ( h , r ) − R L ∗ ( H all , R all ) )

其中Γ Γ 拥有与定理 2中相同的形式。

该推论以一个积极的方式为预测器-拒绝器框架下的多分类弃权学习提供了贝叶斯一致的代理损失。事实上,它提供了一个更强的结果,因为它为之前描述过的三种弃权代理损失给出了额外误差界。这些是比这些损失函数的贝叶斯一致性更强的保障(通过取极限操作即可得到)。

需要指出的是,该新颖的单阶段预测器-拒绝器代理损失可能导致一些优化的挑战。这是下列因素所导致的:优化平均绝对误差损失的困难,约束合页损失施加的限制(与在神经网络假设中做为标准使用的Softmax函数不兼容),以及ρ ρ -间隔损失的非凸性。然而,我们的原始目标是理论分析,而且这些代理损失的意义体现在它们的创新性和强理论保障。正如推论 3所展示的,它们是首个用于多分类弃权问题的预测器-拒绝器贝叶斯一致的代理损失。

3 两阶段预测器-拒绝器代理损失

接下来,我们展示两阶段的计算方法,在这一方法中我们引入l l 选择更灵活的代理损失,这些代理损失具有更好的优化属性。和前面类似,我们会为它们构建(H,R) ( H , R ) - 一致性界。两阶段场景是一个重要的场景,因为在实践中常常大的预训练的预测模型已经可利用(第一阶段),而重新训练它会产生不可接受的昂贵代价。接下来问题变为了保持第一阶段的预测模型保持不变,而随后学习一个有用的拒绝模型(第二阶段)。

两阶段的预测器-拒绝器弃权损失和我们在第2部分中提到的单阶段预测器-拒绝器弃权损失Labst L abst 不同的是,h h 被固定,只需要学习r,而不同于Labst L abst 中的h h r同时被学习。我们设Labst,h L abst , h Labst L abst 的固定预测器h h 的两阶段版本,定义如下:对任意rRxX x ∈ X yY y ∈ Y

Labst,h(r,x,y)=Ih(x)yIr(x)>0+cIr(x)0 L abst , h ( r , x , y ) = I h ( x ) ≠ y I r ( x ) > 0 ⏟ 不弃权 + c I r ( x ) ⩽ 0 ⏟ 弃权

作者提出了一个两阶段计算方法:

  • 首先,找到一个分类器h h 以最小化标准多分类代理损失l
  • 其次,固定h h ,通过最小化代理损失Lϕ,h找到r r 。关于r的的代理损失函数定义如下(对所有的(x,y) ( x , y ) ):

Lϕ,h(r,x,y)=Ih(x)yϕ(r(x))+cϕ(r(x)) L ϕ , h ( r , x , y ) = I h ( x ) ≠ y ϕ ( − r ( x ) ) + c ϕ ( r ( x ) )

这里ϕ ϕ 为做为tIt0 t ↦ I t ⩽ 0 上界的非递增辅助函数,也即对应在二分类中为函数h h 决定间隔损失ϕ(yh(x))的函数(例如指数函数),其中y{1,+1} y ∈ { − 1 , + 1 } 。该计算方法是比较直接的,因为第一阶段涉及使用标准代理损失(例如Logistic损失或带Softmax的交叉熵损失)寻找预测器的经典任务;而第二阶段也相对简单,因为h h 被固定,且Lϕ,h的形式也不复杂,其中ϕ ϕ 可能是Logistic损失或者指数损失。需要指出的是,严格的选择上式中的示性函数对保障两阶段代理损失获益于(H,R) ( H , R ) - 一致性界是很重要的。如果代理损失函数在第一阶段中被使用,这可能不一定满足。

需要指出的是,损失函数Labst,h L abst , h Lϕ,h L ϕ , h 都是弃权函数r r 的函数,而Labst(h,r)(H,R) ( h , r ) ∈ ( H , R ) 的函数。

定义二值0-1分类损失lbinary(r,x,y)0-1=Iysign(r(x)) l 0-1 binary ( r , x , y ) = I y ≠ sign ( r ( x ) ) ,其中sign(t)=It>0It0 sign ( t ) = I t > 0 − I t ⩽ 0 。正如单阶段代理损失,两阶段代理损失也获益于强一致性保障。我们先展示在第二阶段中,当预测器h h 固定时,若ϕ满足关于二值0-1损失lbinary0-1 l 0-1 binary R R -一致性界,则代理损失函数Lϕ,h L ϕ , h 获益于关于Labst,h L abst , h R R -一致性界。

定理 4 第二阶段代理损失的R R -一致性界 对于固定的预测器h h ,假设ϕ满足关于lbinary0-1 l 0-1 binary R R -一致性界,即存在非递减凹函数Γ Γ 使得对所有rR r ∈ R ,有

Rlbinary0-1(r)Rlbinary0-1(R)+Mlbinary0-1(R)Γ(Rϕ(r)Rϕ(R)+Mϕ(R)) R l 0-1 binary ( r ) − R l 0-1 binary ∗ ( R ) + M l 0-1 binary ( R ) ⩽ Γ ( R ϕ ( r ) − R ϕ ∗ ( R ) + M ϕ ( R ) )

则对于所有rR r ∈ R 和任意分布,下列R R -一致性界成立:

RLabst,h(r)RLabst,h(R)+MLabst,h(R)Γ((RLϕ,h(r)RLϕ,h(R)+MLϕ,h(R))/c) R L abst , h ( r ) − R L abst , h ∗ ( R ) + M L abst , h ( R ) ⩽ Γ ( ( R L ϕ , h ( r ) − R L ϕ , h ∗ ( R ) + M L ϕ , h ( R ) ) / c )

该定理的证明包括了对于固定的预测器h h ,分析弃权损失和第二阶段代理损失的校准差距。这里的校准差距相较于标准设置下的更复杂,因为它考虑了条件概率、该固定预测器的误差和花费,于是因此需要不同的分析。为了构建第二阶段代理损失的R-一致性界,我们需要使用该代理损失的校准差距来构建弃权损失的校准差距的上界。然而,直接操作它们会由于其复杂形式而较为困难。不过,我们可以观察到这两种形式共享了与标准分类中校准差距的结构相似性。由上述的观察启发,我们构建了一个合适的条件分布来将这两个校准差距转换为标准形式。我们尝试利用ϕ ϕ 的关于二值0-1损失的R R -一致性界,以用代理函数的校准差距构建目标校准差距的上界。

H H R R 为可测函数集的特殊情况下,定理 4中的所有最小化能力差距项消失了。因此,我们获得了如下推论。

推论5 固定预测器h h ,假设ϕ满足关于lbinary0-1 l 0-1 binary 的额外误差界,即存在非递减凹函数Γ Γ 使得对所有rRall r ∈ R all ,有

Rlbinary0-1(r)Rlbinary0-1(Rall)Γ(Rϕ(r)Rϕ(Rall)) R l 0-1 binary ( r ) − R l 0-1 binary ∗ ( R all ) ⩽ Γ ( R ϕ ( r ) − R ϕ ∗ ( R all ) )

于是,对所有rRall r ∈ R all 和任意分布,下列额外误差界成立:

RLabst,h(r)RLabst,h(Rall)Γ((RLϕ,h(r)RLϕ,h(Rall))/c) R L abst , h ( r ) − R L abst , h ∗ ( R all ) ⩽ Γ ( ( R L ϕ , h ( r ) − R L ϕ , h ∗ ( R all ) ) / c )

我们接下来陈述关于弃权损失函数Labst L abst 的整个两阶段方法的(H,R) ( H , R ) - 一致性界。设l0-1 l 0-1 为多分类0-1损失:l0-1(h,x,y)=Ih(x)y l 0-1 ( h , x , y ) = I h ( x ) ≠ y 。我们接下来考虑是弃权正规(regular for abstention) 的假设集合R R ,也即使得对任意xX x ∈ X ,存在f,gR f , g ∈ R 满足f(x)>0 f ( x ) > 0 g(x)0 g ( x ) ⩽ 0 。如果R R 是弃权正规的,则对于任意x x ,既存在一个可以接受的选择也存在一个可以拒绝的选择。

定理6 两阶段方法的(H,R) - 一致性界 假设R R 是正规的。假设l l 满足关于l0-1 l 0-1 H H - 一致性界,ϕ ϕ 满足关于lbinary0-1 l 0-1 binary R R - 一致性界,即存在非递减凹函数Γ1 Γ 1 Γ2 Γ 2 使得对于所有的hH h ∈ H rR r ∈ R ,有

Rl0-1(h)Rl0-1(H)+Ml0-1(H)Γ1(Rl(h)Rl(H)+Ml(H))Rlbinary0-1(r)Rlbinary0-1(R)+Mlbinary0-1(R)Γ2(Rϕ(r)Rϕ(R)+Mϕ(R)) R l 0-1 ( h ) − R l 0-1 ∗ ( H ) + M l 0-1 ( H ) ⩽ Γ 1 ( R l ( h ) − R l ∗ ( H ) + M l ( H ) ) R l 0-1 binary ( r ) − R l 0-1 binary ∗ ( R ) + M l 0-1 binary ( R ) ⩽ Γ 2 ( R ϕ ( r ) − R ϕ ∗ ( R ) + M ϕ ( R ) )

于是,下列的(H,R) ( H , R ) - 一致性界对所有hH,rR h ∈ H , r ∈ R 和任意分布成立:

RLabst(h,r)RLabst(H,R)+MLabst(H,R)Γ1(Rl(h)Rl(H)+Ml(H))+(1+c)Γ2((RLϕ,h(r)RLϕ,h(R)+Mlϕ,h(R))/c) R L abst ( h , r ) − R L abst ∗ ( H , R ) + M L abst ( H , R ) ⩽ Γ 1 ( R l ( h ) − R l ∗ ( H ) + M l ( H ) ) + ( 1 + c ) Γ 2 ( ( R L ϕ , h ( r ) − R L ϕ , h ∗ ( R ) + M l ϕ , h ( R ) ) / c )

其中常数因子(1+c) ( 1 + c ) 1c 1 c Γ2 Γ 2 是线性的时可以被移除。

和前面类似,当H H R R 为可测函数族时,下列关于额外误差界的推论成立。

推论 7 假设l l 满足关于l0-1 l 0-1 的额外误差界,ϕ ϕ 满足关于lbinary0-1 l 0-1 binary 的额外误差界,即存在非递减凹函数Γ1 Γ 1 Γ2 Γ 2 使得对于所有的hHall h ∈ H all rRall r ∈ R all ,有

Rl0-1(h)Rl0-1(Hall)Γ1(Rl(h)Rl(Hall))Rlbinary0-1(r)Rlbinary0-1(Rall)Γ2(Rϕ(r)Rϕ(Rall)) R l 0-1 ( h ) − R l 0-1 ∗ ( H all ) ⩽ Γ 1 ( R l ( h ) − R l ∗ ( H all ) ) R l 0-1 binary ( r ) − R l 0-1 binary ∗ ( R all ) ⩽ Γ 2 ( R ϕ ( r ) − R ϕ ∗ ( R all ) )

于是,下列额外误差界对于所有hHall h ∈ H all rRall r ∈ R all 和任意分布成立:

RLabst(h,r)RLabst(Hall,Rall)Γ1(Rl(h)Rl(Hall))+(1+c)Γ2((RLϕ,h(r)RLϕ,h(Rall))/c) R L abst ( h , r ) − R L abst ∗ ( H all , R all ) ⩽ Γ 1 ( R l ( h ) − R l ∗ ( H all ) ) + ( 1 + c ) Γ 2 ( ( R L ϕ , h ( r ) − R L ϕ , h ∗ ( R all ) ) / c )

其中常数因子(1+c) ( 1 + c ) 1c 1 c Γ2 Γ 2 是线性的时可以被移除。

这些结果为两阶段设置下的代理损失提供了强理论保障。此外,l l 在单阶段设置下的选择受特定条件的约束,而多分类代理损失l l 可以被更加灵活地选择。特别地,它可以被选择为Logistic损失(或带Softmax的交叉熵损失),这不但更易于优化,而且能够更好地适配于复杂的神经网络。在第二阶段,公式比较直接,函数ϕ ϕ 的选择是灵活的,这将导出关于拒绝函数r r 的简单的光滑凸优化问题。此外,第二阶段将过程进行了简化:h做为常量,只有拒绝器被优化。该方法能够增强优化效率。

参考

  • [1] Mao A, Mohri M, Zhong Y. Predictor-rejector multi-class abstention: Theoretical analysis and algorithms[C]//International Conference on Algorithmic Learning Theory. PMLR, 2024: 822-867.
  • [2] Cortes C, DeSalvo G, Mohri M. Boosting with abstention[J]. Advances in Neural Information Processing Systems, 2016, 29.
  • [3] Ni C, Charoenphakdee N, Honda J, et al. On the calibration of multiclass classification with rejection[J]. Advances in Neural Information Processing Systems, 2019, 32.
  • [4] Han Bao: Learning Theory Bridges Loss Functions
  • [5] Crammer K, Singer Y. On the algorithmic implementation of multiclass kernel-based vector machines[J]. Journal of machine learning research, 2001, 2(Dec): 265-292.
  • [6] Awasthi P, Mao A, Mohri M, et al. Multi-Class H H -Consistency Bounds[J]. Advances in neural information processing systems, 2022, 35: 782-795.

__EOF__

  • 本文作者: 猎户座
  • 本文链接: https://www.cnblogs.com/orion-orion/p/18730657
  • 关于博主: 研究生小菜一枚,机器学习半吊子,并行计算混子。
  • 版权声明: 欢迎您对我的文章进行转载,但请务必保留原始出处哦(*^▽^*)。
  • 声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。
原创作者: orion-orion 转载于: https://www.cnblogs.com/orion-orion/p/18730657
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值