CenterNet :Objects as Points-论文笔记(目标检测)

摘要

传统目标检测将物体定义为沿着坐标轴的边界框,对所有可能的物体进行穷举搜索,再进行分类。这种方法耗时耗力,且需要额外的后处理过程。本文将物体建模为单个点——边界框的中心点,用关键点估计找到中心点,并且回归输出物体其他属性,如:尺寸,3D位置,旋向,甚至位姿。本文方法称为CenterNet,一种端到端具有多种优点的目标检测方法,达到了速度与准确率平衡

引言

目标检测很重要,为许多后续任务提供支撑(实力分割、位置估计等)。在监控、自动驾驶等领域有广泛应用。传统目标检测将物体定义为沿着坐标轴的边界框,对所有可能的物体进行穷举搜索,再进行分类。对每一个边界框,分类器要判断框中是某一特定的物体还是背景。单阶段目标检测器在图像上滑动一个复杂的可能的包围框(称为锚),并直接对它们进行分类,而不指定框的内容。两阶段探测器重新计算每个潜在框的图像特征,然后对这些特征进行分类后处理(即非最大抑制),然后通过计算边界框IoU来消除相同实例的重复检测。后处理过程很难训练,因此当下方法均不是端到端的。
如图2所示,本文将物体建模为单个点——边界框的中心点,用关键点估计找到中心点,并且回归输出物体其他属性,如:尺寸,3D位置,旋向,甚至位姿。我们只需要将图片喂入全卷积网络,用来产生热力图。热力图的峰值点对应物体中心,每个峰值的图像特征预测被包围的物体的高度和重量。是监督学习,推理过程是简单的前向传递,没有后处理。
在这里插入图片描述

我们的方法是通用的,并可以扩展到其他任务,只需很小的改动。通过预测每个中心点的额外输出(见图4),我们提供了三维目标检测多人人体姿态估计的实验。
在这里插入图片描述

相关工作

基于区域分类的目标检测。RCNN、Fast-RCNN。然而,这两种方法都依赖于缓慢的低层次区域提议方法。
带有隐式锚的对象检测。Faster RCNN生成检测网络内的区域提议。它对低分辨率图像网格周围的固定形状包围框(锚)进行采样,并将每个框分类为“前景或非前景”。锚点被标记为前景:与任何ground truth对象有">0.7"重叠,与背景有”<0.3”的重叠,否则被忽略。每个生成的区域提案再次分类。将建议分类器改为多类分类器,形成了单级检测器的基础。单级检测器的改进包括锚形先验、不同的特征分辨率和不同样本之间的损失重加权。
我们的方法与基于锚点的单阶段方法密切相关。一个中心点可以被看作是一个与形状无关的锚点(参见图3)。然而,这里有一些重要的区别。首先,我们的CenterNet仅根据位置分配锚”,而不是框重叠。我们没有用于前景和背景分类的手动阈值。其次,我们每个对象只有一个positive的“锚”,因此不需要Non-Maximum Suppression (NMS)。我们简单地在关键点热图中提取局部峰。第三,与传统的目标探测器(输出步幅为16)相比,CenterNet使用了更大的输出分辨率(输出步幅为4)。这消除了对多个锚的需要。

在这里插入图片描述
基于关键点估计的目标检测。CornerNet。ExtremeNet。然而,在关键点检测之后,它们需要一个组合分组阶段,这大大降低了每个算法的速度。另一方面,我们的CenterNet简单地为每个对象提取一个中心点,而不需要进行分组或后期处理。
单目三维物体检测。Deep3Dbox。3D RCNN。Deep Manta。我们的方法类似于一步版的Deep3Dbox或3DRCNN。因此,CenterNet比其他竞争方法更简单、更快。

Preliminary

输入图像“:

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值