yolov3网络结构图_通俗易懂之YOLOV3-ASFF(自适应特征融合)

22789895d3673a2f690992ff408eba96.png

本系列文章力求浓缩论文要点,同时讲清楚论文的来龙去脉。

今天要讲解的论文是《Learning Spatial Fusion for Single-Shot Object Detection》,它解决了特征金字塔中深浅层特征融合时,特征尺度不一致造成的冲突问题(下文中会进行详细解释)。如上图所示,YOLOV3+ASFF相比于原始的YOLOV3 baseline有较为明显的涨点。按照以下结构来组织

  • 论文要解决的问题(背景)
  • 论文怎么解决的该问题(创新点)
  • 代码层而怎么实现(实现)

论文要解决的问题(背景)

fc68d7a27e3f215b6c76c3e8b21c330b.png

上图是目标检测中特征金字塔(FPN)的结构图。该结构的意义在于:每个预测分枝有效的结合了深度网络特征图的主义信息和浅层网络特征图的位置信息。网络层次越深时,深层网络的语义信息越明确,知道图像中是什么,但深层特征中包含的空间位置信息较少。网络浅层中保存的空间信息丰富。因此,FPN深浅拼接结构可以有效的解决目标检测中不同大小物体的:分类(语义信息,是什么)+定位(在哪里)。这和本文有啥关系呢?且听我细细道来。

上图中有三个检测分枝的输入,从上到小称之为特征图1、特征图2、特征图3。三个分枝中1号特征图感受野小(相对于2、3而言),适合检测网络输入图片中的小物体;3号特征图由网络主干中深层产生,感受野最大,适合检测大物体;同理,2号特征图适合检测中等大小的物体。那么问题来了,3号特图中既有大物体也有小物体,它的目标是检测大物体,能不能使用一个过滤器,来将3号特征图中小物体激活值过滤掉,同时结合1、2图特征图中的对应大物体的特征值来丰富3中大物体信息?

论文怎么解决的该问题(创新点)

  • 1
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值