论文阅读之CenterNet

论文题目: 《Objects as Points》
地址:https://arxiv.org/pdf/1904.07850.pdf
发布时间:2019.4
代码:https://github.com/xingyizhou/CenterNet

1. Abstract

anchor_based 算法:枚举出可能潜在的目标,然后对这些潜在的目标进行分类。
缺点:浪费时间、低效,需要额外的后处理(post-processing)

本文算法将目标的bbox的中心点定为该目标的中心点,检测器使用关键点检测去估计找到中心点,并且回归目标的其他属性,例如:尺寸,3d位置、方向、甚至姿态。
优点:相比较于基于bbox的检测器,我们的模型是端到端可微的,更简单,更快,更精确,实现了速度和精确的最好权衡。


2. Introduction

大多数目标检测算法都经过post-processing,很难微分和训练,他们都不是端到端可训练的。
本文提出的方法在对象的边界框中心用一个点表示对象(见图)。然后直接从位于中心位置的图像特征返回其他属性,如对象大小、尺寸、3D范围、方向和姿态。将 目标检测问题变成了关键点估计问题。

我们将图片输入给一个全卷积网络,产生一个热图。这幅热图的峰值对应于物体的中心。每个峰值的图像特征可以预测物体的bbox高度和宽度。训练模型使用标准的密集监督学习。推理是一个单一的前向网络,没有使用非极大值抑制处理。

模型使用的范围也比较广泛,小小的改变就可以应用到其他任务
在这里插入图片描述

3. Related work

Object detection by region classification: R-CNN
Object detection with implicit anchors: Faster R-CNN

文中的方法与anchor_based方法相似。中心点可以看作是一个单独的形状不可知的锚点,有以下几点不同:

  • 我们分配的锚点仅仅是放在位置上,没有尺寸框。没有手动设置的阈值做前后景分类。(像Faster RCNN会将与GT IOU >0.7的作为前景,<0.3的作为背景,其他不管)
  • 每一个目标只有一个positive的anchor,所以不需要NMS。仅仅是简单的从关键点热图中提取峰值点
  • CenterNet使用高分辨率输出(4x),相对传统的目标检测器(16x),所以不需要多尺度anchor

在这里插入图片描述

4.Preliminary

输入图片为: I ∈ R W × H × 3 I∈ R^{W×H×3} IRW×H×3
产生的热图为: Y ^ ∈ [ 0 , 1 ] W R ∗ H R ∗ C \hat Y∈[0,1]^{\frac W R * \frac H R *C} Y^[0,1]RWRHC
其中:R=4为网络步长,C为类别。
表示检测到的关键点: Y ^ x , y , c = 1 \hat Y_{x,y,c} = 1 Y^x,y,c=1 ,表示检测到的背景: Y ^ x , y , c = 0 \hat Y_{x,y,c} = 0 Y^x,y,c=0
我们采用了几个不同的全卷积编码-解码网络来预测图像 I I

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值