STDN(Scale-Transferrable Object Detection Network)目标识别网络复现-Pytorch

论文链接:https://openaccess.thecvf.com/content_cvpr_2018/papers/Zhou_Scale-Transferrable_Object_Detection_CVPR_2018_paper.pdf

复现代码:https://gitee.com/chengze1998/STDN

0 概述

STDN是CVPR 2018的一篇目标检测论文,提出STDN网络用于提升多尺度目标的检测效果。要点包括:(1)使用DenseNet-169作为基础网络提取特征特征提取网络(自带高低层特征融合),基于多层特征做预测(类似SSD),并对预测结果做融合得到最终结果;(2)提出Scale-transfer Layer,在几乎不增加参数量和计算量的情况下生成大尺度的feature map。

1 网络模型

1.1 Densenet

(1条消息) DenseNet算法详解_denseblock参数表_AI之路的博客-CSDN博客

1.2 STDN

在Densenet基础上,STDN在第四个Denseblock嵌入了一个STM模块用于提取特征图和进行目标检测任务。

为了获得高层次的语义多尺度特征图,同时不影响检测器的速度,我们开发了一个尺度转移模块(STM),并将该模块直接嵌入到DenseNet中[14]。DenseNet的作用是在CNN中整合低级和高级特征,以获得更强大的特征。由于网络结构的密集连接,DenseNet的特征自然比普通卷积特征更强大。STM由池化层和标度转移层组成。池化层用于获得小尺度的特征图,标度转移层用于获得大尺度的特征图。尺度转移层最早被提出来做图像超分辨率[28],因为它的简单性和效率,有些人也用它来做语义分割[30]。我们利用这一层来有效地扩大用于物体检测的特征图的分辨率。(翻译自原文)

STM自然适合基础网络,并能实现端到端的训练。我们认为,STM有两个明显的优势。首先,结合DenseNet[14],特征图自然拥有低层次的物体细节特征和高层次的语义特征。我们将证明,这将提高物体检测的准确性。第二,STM是由池化层和超分辨率层组成的,没有额外的参数和计算。实验结果表明,本文提出的框架能够准确地检测物体并满足实时性要求。(翻译自原文)

2 代码复现

复现部分是笔者参照了大量的资料和自行摸索的结果,很多地方使用的方法可能会很笨拙,甚至出现纰漏,也期待各位提出意见或建议,谢谢!

本文代码:https://gitee.com/chengze1998/STDN

代码框架以及检测部分参考代码:http://t.csdn.cn/ZoR0B

本文代码部分特别感谢本站@Bubbliiiing的文章,通过

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
好的,这里有 100 个以上目标检测模型的推荐: 1. R-CNN (Regions with CNN features) 2. Fast R-CNN 3. Faster R-CNN 4. Mask R-CNN 5. YOLO (You Only Look Once) 6. SSD (Single Shot Detector) 7. RetinaNet 8. DSSD (Deconvolutional Single Shot Detector) 9. YOLOv2 (You Only Look Once version 2) 10. YOLOv3 (You Only Look Once version 3) 11. YOLOv4 (You Only Look Once version 4) 12. R-FCN (Region-based Fully Convolutional Network) 13. FPN (Feature Pyramid Network) 14. G-CNN (Grid-based CNN) 15. MHYPER (Multi-Hyperplane CNN) 16. HyperNet (Hyperdimensional Network) 17. F-RCNN (Faster R-CNN with Feature Pyramid Network) 18. ION (Integral Objectness Network) 19. NO-CNN (Non-Overlapping CNN) 20. MNC (MultiBox Neural Network for Object Detection) 21. MR-CNN (Multi-Region CNN) 22. L-CNN (Localization CNN) 23. RON (Reverse Connection with Objectness) 24. ML-CNN (Multiple Localization CNN) 25. STDN (Spatial Transformer Detector Network) 26. GAN-based object detection models (e.g. ODIN, Boundary-Seeking GAN) 27. 3D object detection models (e.g. PointRCNN, VoteNet) 28. Graph-based object detection models (e.g. Graph RCNN, GIN) 29. Transformers for object detection (e.g. DETR, ViT-OD) 30. Meta-learning for object detection (e.g. MetaAnchor, Meta R-CNN) 31. Hierarchical models for object detection (e.g. H-RCNN, HD-CNN) 32. Adversarial training for object detection (e.g. AdvEnt, ATOD) 33. Semi-supervised object detection (e.g. SSL-detection, S3D) 34. Weakly-supervised object detection (e.g. W-TALC, WSDDN) 35. Few-shot object detection (e.g. FSOD, F-RCNN) 36. Zero-shot object detection (e.g. ZSD-Net, ZS-OD) 37. Transfer learning for object detection (e.g. TLD, TLOD) 38. Multi-task learning for object detection (e.g. MTDNN, M2Det) 39. Knowledge distillation for object detection (e.g. KD-RCNN, DistillObjDet) 40. Domain adaptation for object detection (e.g. DANN, AdaDet) 41. Active learning for object detection (e.g. AL-RCNN, ALOD) 42. Online learning for object detection (e.g. OL-RCNN, OLEO) 43. Ensemble models for object detection (e.g. EfficientDet, E-RCNN) 44. Neural architecture search for object detection (e.g

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值