空间中的语义直线检测_比边界框更好用的目标检测方法来了!北大清华微软提出RepPoints...

北京大学、清华大学和微软亚洲研究院的研究人员提出RepPoints,一种替代边界框的目标检测表示方法,能更精细地表示目标并实现与先进anchor-based检测器相当的性能。RepPoints自适应地定位并表示目标的重要区域,无需anchor,适用于端到端训练。
摘要由CSDN通过智能技术生成
09b206e1da78e9b8004cd67ab61ff028.png

【新智元导读】来自北京大学、清华大学和微软亚洲研究院的研究人员提出一种新的、更精细的对象表示方法RepPoints,抛弃了流行的边界框表示,结果与最先进的基于 anchor 的检测方法同样有效。

目标检测是计算机视觉中最基本的任务之一,也是许多视觉应用的关键组成部分,包括实例分割、人体姿态分析、视觉推理等。

目标检测的目的是在图像中定位目标,并提供目标的类别标签。

近年来,随着深度神经网络的快速发展,目标检测问题也取得了长足的进展。

当前先进的目标检测器很大程度上依赖于矩形边界框来表示不同识别阶段的对象,如 anchors、proposals 以及最终的预测。

边界框使用方便,但它只提供目标的粗略定位,导致对目标特征的提取也相当粗略。

近日,来自北京大学、清华大学和微软亚洲研究院的杨泽、王立威、Shaohui Liu 等人在他们的最新论文中,提出了一种新的、更精细的对象表示方法 ——RepPoints (representative points),这是一组对定位和识别都很有用的样本点 (sample points)。

5e0eab695b19ceba101173d0aaf4ff6b.png

论文地址:https://arxiv.org/pdf/1904.11490.pdf

给定训练的 ground truth 定位和识别目标,RepPoints 学会自动以限制目标的空间范围的方式来排列自己,并表示在语义上重要的局部区域。此外,RepPoints 不需要使用 anchor 来对边界框的空间进行采样

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值