Generalized Focal Loss 论文阅读笔记

本文详细解读了Generalized Focal Loss论文,指出训练与测试的不一致性和bbox回归表示的局限性。作者提出将分类分数与质量分数结合,形成连续标签,并用Quality Focal Loss优化。同时,将bbox回归从狄拉克分布扩展为任意概率分布,用Distribution Focal Loss优化。文中还包含了损失函数的公式和代码实现。
摘要由CSDN通过智能技术生成

**

Generalized Focal Loss 论文阅读笔记2020

在这里插入图片描述

**1、问题的提出

问题一:训练测试不一致,具体表现在两个方面:
1、训练的时候,box分类和box回归是隔开的,但测试的时候却又是乘在一起作为NMS score排序的依据,没有end-to-end,就会存在一定的gap。
2、分类分支能够从Focal loss中选出合适的正负样本训练,但是质量估计一般只针对正样本训练。这样就会带来一个问题,如果一个负样本的质量score很高、分类分数低(这没问题),它的总得分就可能超过正样本。NMS排序基础是分类score*质量score!

在这里插入图片描述
问题二:bbox回归采用的表示不灵活(单一的狄拉克分布),无法建模复杂场景
在复杂场景中,边界框的表示具有很强的不确定性,而现有的框回归本质都是建模了非常单一的狄拉克分布,非常不flexible。我们希望用一种general的分布去建模边界框的表示。问题二如图所示(比如被水模糊掉的滑板,以及严重遮挡的大象)。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值