关于密集遮挡的行人检测
行人检测是计算机视觉领域的一个重要研究课题,在自动驾驶,视频监控和机器人等各种应用,旨在预测一系列行人实例的边界框。实际上,在现实生活中的复杂情景中,遮挡是行人检测的最重要挑战之一,尤其是在拥挤的场景中。例如在CityPersons数据集中48.8 %行人其它行人互相遮挡。以前的方法只要求每个预测的边界框都接近其指定的GT,而不考虑它们之间的关系。因此,它们使得检测器对拥挤场景中的非最大抑制(NMS)的阈值敏感,这种密集遮挡问题并不能单靠调整NMS阈值来解决,较大的NMS阈值导致很多误检,较小的NMS阈值导致很多漏检。
有些论文专门提出方法来解决密集和遮挡问题,本文将关注Occlusion-aware R-CNN:Detecting Pedestrians in a Crowd(简称为OR-CNN)和Repulsion Loss两个解决方案。
1.OR-CNN
该论文以Faster R-CNN为基础,对损失函数部分和RoIPooling两个部分分别做出了一些改进。本博客将主要关注对损失函数改进的部分,提出聚集损失(AggLoss)来改进密集遮挡问题。
Faster R-CNN是两阶段检测方法,分别在RPN和R-CNN头部网络检测。为了在RPN模块中能有效的生成更加准确的区域候选框,设计了AggLoss使候选框尽量的靠近对应的GT,并且同一个GT对应的所有proposal boxes尽量紧凑。其定义如下: