论文 Focal Loss for Dense Object Detection

看本文之前,需要搞明白
1)机器学习中的正样本(positive examples),负样本(negative examples),难分样本(hard examples),难例挖掘(hard examples mining)这些基本概念。
参考另一篇博客

2)什么是class imbalance(类不平衡问题)?
当我们做object detection的时候,一张图片事先有很多的candidate locations (候选框),但是很多时候只有部分的候选框中包含了物体,那些不包含物体的候选框占了大多数,这就是不平衡性。loss function中,这些正样本(包含物体的候选框)和负样本(不包含物体)是同等对待的,这样类的不平衡性也导致了loss function的不准确行。

本文主要提出了一种新的网络架构RetinaNet 和 一种新的Loss Function。但是作者声明实验效果之所以好的原因是提出了新的loss function。

实验中,作者也比较了已有的各种样本选择方式:
1)按照class的比例加权重:最常用的处理类别不平衡问题的方式
2)OHEM:只保留loss最高的那些样本,完全忽略了简单样本(易分类的样本,与难分样本相对)
3)OHEM + 按class比例 sample:在OHEM的基础上,再保证正负样本比例1:3

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值