ScarfNet 多尺度融合与特征重分配增强目标检测 论文简记

《ScarfNet: Multi-scale Features with Deeply Fused and Redistributed Semantics for Enhanced Object Detection》论文介绍了如何通过双向LSTM融合多尺度特征,并利用注意力模型重新分配特征,提升目标检测性能。ScarfNet结构基于RetinaNet的FPN,关键创新在于ScNet和ArNet。实验结果显示,该方法在VOC2007和COCO数据集上表现出中等水平的检测精度,但速度较慢,且与近期的无锚点方法相比存在差距。
摘要由CSDN通过智能技术生成
  • paper:《ScarfNet: Multi-scale Features with Deeply Fused and Redistributed Semantics
    for Enhanced Object Detection》
  • arxiv: https://arxiv.org/abs/1908.00328
  • github: 暂时没找到

简介

首先paper提出bottom-level特征限制目标检测性能,提出2点来解决问题:

  1. 使用双向LSTM融合上下文多尺度特征
  2. channel-wise 注意力模型重分配每个尺度的特征

模型

ScarfNet结构
ScarfNet结构网络结构,主体结构借鉴RetinaNet中的FPN,关键是加入尺度结合网络ScNet和注意力重分配网络ArNet。
ScNet和ArNet详细结构体
ScNet:利用双向LSTM融合四个不同尺度分支的特征,这样做将手工的特征连接编程基于权重自动学习重要特征来融合。
ArNet:注意力模型与其他注意力模型没有什么本质区别,都是通过全局平均池化GAP实现自注意力,然后再旁路连

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值