Repulsion loss的详细理解

在这里插入图片描述
本文由同济大学和北京大学合作发表于CVPR2018,聚焦于loss层面,为遮挡情况下的行人检测问题提供了一种行之有效的解决方案。
论文:https://arxiv.org/abs/1711.07752

一、问题提出在这里插入图片描述

1.行人遮挡会造成什么问题

当我们在做行人检测时,人与人之间会存在互相遮挡。遮挡会造成2个问题:

1.设红色框为目标框T(man)的预测框P,旁边也有个真实框B(woman),我们的P可能会被往B去移动(shift)。

2.检测器对NMS的阈值的选取更为敏感。如果NMS阈值选取过小,周围的目标框会被过滤掉;如果NMS阈值选取过大,会带更多的虚检

2.非极大抑制选取更敏感

第二点的影响是不是不太直观?没关系,我们先详细回顾一下非极大抑制NMS的实现过程:

在检测器中,一张图片可能会有n个检测目标,每个检测目标都会有很多检测框(proposals/anchors/bbox)。
对于每个检测目标来讲,它的附近都会有一簇IoU很高的检测框(相较于其他的检测框来说),所以针对同一个检测目标,有必要只留下置信度(score)最高的那个检测框作为该物体的检测框,其他的都应该过滤掉。

实现步骤:

1、假定有6个带置信率的region proposals,并预设一个IOU的阈值如0.72、按置信率大小对6个框排序: 0.95, 0.9, 0.9, 0.8, 0.7, 0.73、设定置信率为0.95的region proposals为一个预测框;

4、在剩下5个region proposals中,去掉与0.95物体框IOU大于0.7的。

5、重复24的步骤,直到没有region proposals为止。

6、每次获取到的最大置信率的region proposals就是我们筛选出来的目标。

那么问题来了,对于有遮挡的行人数据集,这里过滤掉的检测框有没有对隔壁检测目标IoU最高却被我们这个检测目标的检测框给抑制掉的呢?看图。在这里插入图片描述
NMS阈值选取过小:针对目标T(man),检测框P与T的IoU最大,P会视为T的预测框。如果NMS选取过小,旁边目标B的预测框(woman)假设为K,那么K会被选作T的检测框,然后被P抑制掉。

NMS阈值选取过大:与上面是同样的道理,会多出许多检测框,带来更多的假正例。

二、Repulsion loss

既然已经清楚影响是怎样造成的,来看看解决方案。Repulsion loss的作用在于,要求预测框P靠近(吸引)自己的真实目标T的同时,还要求P远离(排斥)T旁边的其他真实框(例如B)

1.Replusion loss:

在这里插入图片描述

可以看到该损失函数中包含3个模块,下面来分别作解释。

2. L A t t r L_{Attr} LAttr

该模块的作用是使得预测框和它的目标框尽可能接近。
L A t t r L_{Attr} LAttr采用的是通用目标检测中的回归loss,可以采用欧式距离,SmoothL1距离以及IoU距离。但为了和其他算法有可比性,这里采用的是SmoothL1距离。在这里插入图片描述
P ∈ P + P∈P+ PP+(所有的正样本):正样本就是根据设定的IoU阈值来划分出来的检测框P的集合。

G A t t r P G^P_{Attr} GAttrP: 为每一个检测框P匹配一个有最大IoU值的真实目标框(Ground truth)

B P B^P BP: 从检测框P做回归偏移(shift)后得到的预测框。

清楚这些基础概念后,这个模块的函数就好理解了,smoothL1的公式如下:
在这里插入图片描述
从公式可以很直观的看出, B P B^P BP G A t t r P G^P_{Attr} GAttrP的左上角坐标以及宽高 ( x , y , w , h ) (x,y,w,h) x,y,w,h分别进行smoothL1计算,然后累加和。
优化的目标就是让两者之间距离缩短,那就达到了预测框和它的目标框尽可能接近的目的。

3. L R e p G T L_{RepGT} LRepGT

L R e p G T L_{RepGT} LRepGT是使得预测框P和周围的目标框G尽可能远离 。
在这里插入图片描述
这里的周围的目标框是除了已经匹配上的目标框以外的IoU最大的目标框,用 G R e p P G^P_{Rep} GRepP表示。在这里插入图片描述
G R e p P G^P_{Rep} GRepP是除了与预测框P匹配了的Ground_truth-A以外,其他剩下的Ground_truth中与预测框P的IoU最大的Ground_truth-B。

Q1: L R e p G T L_{RepGT} LRepGT采用的smoothLn和IoG,那么为什么不适用IoU呢?

A : 如果选用IoU,那么只要预测框变得足够大(即增大并集)就能使得 L R e p G T L_{RepGT} LRepGT减小。IoG不同,GT是固定的,只能优化分子部分(即增大交集)。

Q2.为什么采用smoothLn?

A : Ln既保留了L1的鲁棒性又吸收L2的快速收敛性。

4. L R e p B o x L_{RepBox} LRepBox

L R e p B o x L_{RepBox} LRepBox:使得预测框Pi和周围的预测框Pj尽可能远离, P i P_i Pi P j P_j Pj分别配上不同的预测框,他们之间的距离采用的是IoU。定义如下:
在这里插入图片描述

从式(4)中可以发现当预测框Pi和周围的其他预测框Pj的IoU越大,则产生的loss也会越大,因此可以有效防止两个预测框因为靠的太近而被NMS过滤掉,进而减少漏检。

参考文献:

[1].CVPR18|Repulsion loss:遮挡下的行人检测
[2].Repulsion Loss: Detecting Pedestrians in a Crowd
[3].NMS算法原理及代码验证

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值