Objects as Points 阅读笔记

介绍

  • 目前的目标检测方法通过一个轴对齐的边界框来表示每个物体,然后将目标检测简化为对大量潜在物体边界框的图像分类。
  • 基于滑动窗口的目标检测器需要列举所有可能的物体位置和尺寸。
  • RCNN从一大批区域候选者中列举出物体的位置,对其进行裁剪,并使用深度网络对每个物体进行分类。Fast RCNN通过裁剪图像特征来节省计算量。
  • Faster RCNN在检测网络中生成RPN
  • 作者用边界框中心的一个点来代表物体,直接从中心位置的图像特征回归出其他属性(大小、尺寸、3D维度、方向和姿势)。
  • Backbone:Hourglass Network。Deep Layer Aggregation, Heatmap
  • 对于中心点重合的现象,很难预测出正确的物体,但作者发现在数据集中大概只有%0.1(COCO)的图像存在中心点重合的物体。

在这里插入图片描述
图 1说明作者的方法性能优于当时的方法
在这里插入图片描述

方法

在这里插入图片描述
公式1:定义一个penalty-reduced pixelwise logistic regression的焦点损失,来训练keypoint预测网络。

在这里插入图片描述
公式2:为了消除由输出跨度引起的离散化误差,对于每一个中心点预测一个局部偏移量。

在这里插入图片描述
公式3:为了减轻计算负担,对所有的物体类别使用单一大小的预测。
在这里插入图片描述
公式4:总的训练目标。
在这里插入图片描述

  • 一个中心点被看作是一个单一的形状无关的锚点。
  • CenterNet只根据位置来分配anchor,而不是重叠的box。
  • 每个检测对象只有一个正样本anchor,因此不需要NMS来对anchor进行筛选。
  • CenterNet使用了更大的输出分辨率(stride=4)。

在这里插入图片描述

实验

使用四种架构进行实验:ResNet-18、ResNet101、DLA-34和Hourglass-104。
在这里插入图片描述
表1:用不同的backbone和测试选项进行COCO验证的结果

在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

1100dp

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值