#今日论文推荐# ICML 2022 | 基于Logit归一化的置信度校准方法

ICML2022会议上的一篇论文提出了LogitNormalization方法,针对神经网络过度自信问题进行校准。研究发现,训练过程中Logit向量的增大导致了过度自信。通过限制Logit范数并保持其方向不变,可以有效缓解这一问题,从而改进OOD(out-of-distribution)检测的准确性。
摘要由CSDN通过智能技术生成

#今日论文推荐# ICML 2022 | 基于Logit归一化的置信度校准方法

神经网络经常出现过度自信问题(overconfidence),表现为对 in-distribution 和 out-of-distribution 的数据都产生比较高的概率置信度,这是 OOD 检测的一个最基础的概念。本文提出一种 Logit Normalization 方法,在训练过程中将 Logit 的范数限定为一个常数,对传统的交叉熵损失进行修正,来缓解这种 overconfidence 问题。

之前 OOD 检测的研究主要聚焦于设计一种比 maximum softmax probability (MSP) 更好的指标来度量 OOD 不确定性。但是很少研究关注神经网络过度自信的原因,以及如何缓解神经网络的过度自信。
作者认为这才是 OOD 检测的本质问题。作者首先做了一个分析,看神经网络训练过程中,Logit 范数的变化。可以发现即使大多数训练示例被分类到正确的标签,softmax 交叉熵损失也可以继续增加 Logit 向量的大小。因此,训练期间不断增长的幅度会导致过度自信问题。

为了缓解上述问题,直接的想法就是在训练过程中将 Logit 范数限定为一个常数,同时保持 Logit 向量方向不变(本文提出的 LogitNorm 方法)。

论文题目:Mitigating Neural Network Overconfidence with Logit Normalization
详细解读:https://www.aminer.cn/research_report/62fa442f7cb68b460f03ccb9icon-default.png?t=M666https://www.aminer.cn/research_report/62fa442f7cb68b460f03ccb9
AMiner链接:https://www.aminer.cn/?f=cs

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值