【分布外检测】《Learning Confidence for Out-of-Distribution Detection in Neural Networks》 Arxiv‘18

这篇文章有些像“learning loss”那篇一样,一股“end to end DL system solve everything”的味道。我需要一个confidence来评估一个样本是否为OOD数据,那我的神经网络模型就输出一个confidence指标来预测当前样本。文章虽然没有发表在会议,但是被引量很高。Motivation作者用一个例子来引入设计模型的动机。假设学生在考试中要回答一系列问题获得分数,途中学生可以选择请求提示获得帮助,但是请求提示会受到小惩罚。那么这个时候学生应该在有信心的题目
摘要由CSDN通过智能技术生成

这篇文章有些像“learning loss”那篇一样,一股“end to end DL system solve everything”的味道。我需要一个confidence来评估一个样本是否为OOD数据,那我的神经网络模型就输出一个confidence指标来预测当前样本。

文章虽然没有发表在会议,但是被引量很高。

Motivation

作者用一个例子来引入设计模型的动机。假设学生在考试中要回答一系列问题获得分数,途中学生可以选择请求提示获得帮助,但是请求提示会受到小惩罚。那么这个时候学生应该在有信心的题目上独立回答,没信心的题目上请求帮助。

在考试结束,统计学生使用的提示数,可以估计他们对每个问题的置信度。那么将这种相同的策略应用于神经网络,也可以使其能学习置信度估计。

模型架构

image-20210325100012494

在任何正常分类预测模型中加入一个“置信估计分支”,加在模型的倒数第二层之后,和“softmax分类模块”平行,两个分支都接受相同的输入。
p , c = f ( x , Θ ) p i , c ∈ [ 0 , 1 ] , ∑ i = 1 M p i = 1 p, c=f(x, \Theta) \quad p_{i}, c \in[0,1], \sum_{i=1}^{M} p_{i}=1 p,c=f(x,Θ)pi,c[0,1],i=1Mpi=1
以上 p p p代表分类概率,通过一个softmax函数获得; c c c代表置信度分数,通过一个sigmoid函数获得。

为了在训练过程中给模型“提示”,在原始softmax预测概率和真实标签 y y y之间通过插值来调整最终分类预测,其中插值的程度由网络的置信度来表示:

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值