《Focal Loss for Dense Object Detection》论文阅读笔记

Focal Loss for Dense Object Detection

RetinaNet -- Best Student Paper Award at ICCV 2017

paper:ICCV 2017 arxiv

GitHub:https://github.com/facebookresearch/Detectron

state-of-the-art object detection存在两种方案:two-stageone-stage

two-stageR-CNN 、fast R-CNN 、faster R-CNN

two-stage方案第一阶段生成一组稀疏的候选对象位置(1-2k个),第二阶段使用卷积神经网络将每个候选位置分类。在COCO benchmark 上实现了top accuracy,但速度较慢。

one-stage:YOLO、SSD

one-stage在一个阶段生成候选位置并分类,这些候选位置从位置、尺度、长宽比采样来生成密集的proposal(~100k个),精度较差但速度快。

作者提出了这样一个问题:could a simple one-stage detector achieve similar accuracy?

由于发现阻碍one-stage detecter实现state-of-art accuracy的主要原因是训练时类别不平衡between foreground and background classes (e.g., 1:1000)。因此作者提出一种新的Loss fuction:focal loss来消除这种障碍。Focal Loss是动态缩放的cross entropy loss。实际上就是乘了一个缩放因子。如图所示。


对于很好分类的example,即概率比较大的,相对的减少其loss;而对于很难分类的,错分类的example,即概率比较小的,loss基本不变。

为了证明focal loss的有效性,作者设计了一个one-stage网络RetinaNet,最好的模型是基于ResNet-101-FPN在COCO test-dev上达到了39.1 AP,5 fps,超过了所有的one-stage和two-stage模型。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值