一文看尽10篇目标检测最新论文(SpineNet/AugFPN/LRF-Net/SABL/DSFPN等)

点击上方“CVer”,选择加"星标"或“置顶”

重磅干货,第一时间送达

前言

一周前 Amusi 整理了 目标检测(Object Detection)较为值得关注的论文:

一文看尽16篇目标检测最新论文(ATSS/MnasFPN/SAPD/CSPNet/DIoU Loss等)

本文再次更新值得关注的最新检测论文。这次分享的paper将同步推送到 github上,欢迎大家 star/fork(点击阅读原文,也可直接访问):

https://github.com/amusi/awesome-object-detection

注意事项:

  • 本文分享的目标检测论文既含ICCV 2019和AAAI 2020刚刚开源的目标检测论文,也有追求 mAP 和 FPS trade-off的论文

  • 论文发布时间段:2019年12月10日-2019年12月14日

目标检测论文


1】SABL:侧面感知边界定位可实现更精确的目标检测

《Side-Aware Boundary Localization for More Precise Object Detection》

时间:20191210

作者团队:港中文&南洋理工大学&浙大&中科大&商汤

链接:https://arxiv.org/abs/1912.04260

代码即将开源:https://github.com/open-mmlab/mmdetection

注:Side-Aware Boundary Localization (SABL),替代bounding box regression,显著提升目标检测性能,如Faster R-CNN, RetinaNet, and Cascade R-CNN分别涨点3.0%, 1.6%, and 0.9%!

Pipeline of SABL for two-stage detector

Pipeline of SABL for two-stage detector


【2】使用强化学习对大图像进行有效的目标检测

《Efficient Object Detection in Large Images using Deep Reinforcement Learning》

时间:20191210(WACV 2020)

作者团队:斯坦福大学

链接:https://arxiv.org/abs/1912.03966

注:为了减少在高空大分辨率的遥感影像进行目标检测所耗费的计算成本,我们提出了一种增强学习方法:CPNet+FPNet,该方法自适应地选择提供给检测器的每个图像的空间分辨率。


3】DSFPN:用于目标检测和实例分割的双重监督特征金字塔网络

《Dually Supervised Feature Pyramid for Object Detection and Segmentation》

时间:20191210

作者团队:天普大学&小鹏汽车等

链接:https://arxiv.org/abs/1912.03730

注:可有效提高Faster RCNN、Cascade RCNN和Mask RCNN的mAP!


【4SpineNet:用于识别和定位的尺度排列Backbone

《SpineNet: Learning Scale-Permuted Backbone for Recognition and Localization》

时间:20191212

作者团队:Google Research(Quoc V. Le大佬)

链接:https://arxiv.org/abs/1912.05027

注:谷歌近期推出EfficientDet和MnasFPN后,今儿又推出SpineNet,基于RetinaNet,mAP直接高达49.2!模型更小、更快


【5】IoU-uniform R-CNN:突破RPN的局限性

《IoU-uniform R-CNN: Breaking Through the Limitations of RPN》

时间:20191212

作者团队:华中科技大学&中南民族大学

链接:https://arxiv.org/abs/1912.05190

代码:https://github.com/zl1994/IoU-Uniform-R-CNN

注:IoU-uniform R-CNN应用至Faster R-CNN、Cascade R-CNN直接涨点0.5-2个点!


【6AugFPN:改进用于目标检测的多尺度特征学习

《AugFPN: Improving Multi-scale Feature Learning for Object Detection》

时间:20191212

作者团队:中科院&地平线

链接:https://arxiv.org/abs/1912.05384

注:AugFPN替换FPN,可帮助Faster R-CNN和RetinaNet涨点1.6AP,帮助FCOS涨点 0.9AP!代码即将开源

Overall pipeline of AugFPN based detector


【7】RDSNet:用于目标检测和实例分割的新的深度网络

《RDSNet: A New Deep Architecture for Reciprocal Object Detection and Instance Segmentation》

时间:20191212(AAAI 2020)

作者团队:中科院&地平线&国科大

链接:https://arxiv.org/abs/1912.05070

代码:https://github.com/wangsr126/RDSNet

RDSNet architecture


【8】从Noisy Anchors学习以进行One-stage目标检测

《Learning from Noisy Anchors for One-stage Object Detection》

时间:20191213

作者团队:马里兰大学帕克分校&Salesforce

链接:https://arxiv.org/abs/1912.05086

注:直接对RetinaNet性能提升2个点,性能优于FASF、ExtremeNet和FCOS等网络


【9】用于精确定位的IoU感知的Single-stage目标检测器

《IoU-aware Single-stage Object Detector for Accurate Localization》

时间:20191213

作者团队:华中科技大学

链接:https://arxiv.org/abs/1912.05992

注:IoU-aware基于RetinaNet,可涨点1.0%∼1.6%

The architecture of IoU-aware single-stage object detector


10】LRF-Net:高速学习丰富的特征以进行Single-Shot目标检测

《Learning Rich Features at High-Speed for Single-Shot Object Detection》

时间:20191214(ICCV 2019)

作者团队:天津大学&IIAI

链接:

http://openaccess.thecvf.com/content_ICCV_2019/papers/Wang_Learning_Rich_Features_at_High-Speed_for_Single-Shot_Object_Detection_ICCV_2019_paper.pdf

代码:https://github.com/vaesl/LRF-Net

注:超越YOLOV3、RetinaNet等Single-stage网络,速度高达52FPS!代码刚开源!(基于PyTorch)

LRF-Net 网络结构

为了方便下载,我已经将上述论文打包,在 CVer公众号 后台回复:20191217 即可获得打包链接。


备注:公众号菜单包含了整理了一本AI小抄非常适合在通勤路上用学习

往期精彩回顾

那些年做的学术公益-你不是一个人在战斗适合初学者入门人工智能的路线及资料下载机器学习在线手册深度学习在线手册备注:加入本站微信群或者qq群,请回复“加群”加入知识星球(4500+用户,ID:92416895),请回复“知识星球”

喜欢文章,点个在看

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值