深度学习_经典网络_CSPNet网络详解

CSPNet的贡献

  1. 增强了CNN的学习能力,能够在轻量化的同时保持准确性。
  2. 降低计算瓶颈。
  3. 降低内存成本。

CSPNet介绍

作者认为在神经网络推理过程中计算量过高的问题是由于网络优化中的梯度信息重复导致的。CSPNet通过将梯度的变化从头到尾地集成到特征图中,在减少了计算量的同时可以保证准确率。

CSPNet不仅仅是一个网络,更是一个处理思想,可以和ResNet、ResNext、DenseNet、EfficientNet等网络结合。

从下图可以看出,CSPNet与其他模型结合后的效果:

在这里插入图片描述

CSPNet的结构

作者给出了几种设计思路:

在这里插入图片描述

上图中的Transition Layer代表过渡层,主要包含瓶颈层 ( 1 × 1 卷 积 ) (1\times1卷积) (1×1)和池化层(可选)。

其中(a)图是原始的DenseNet的特征融合方式。(b)图是CSPDenseNet的特征融合方式。(c)图是Fusion First的特征融合方式。(d)图是Fusion Last的特征融合方式。

Fusion First的方式是对两个分支的feature map先进行concatenation操作,这样梯度信息可以被重用。

Fusion Last的方式是对Dense Block所在分支先进行transtion操作,然后再进行concatenation,梯度信息将被截断,因此不会重复性使用梯度信息。

在这里插入图片描述
上图是对Fusion First、Fusion Last和CSP最终结构进行实验对比,我们可以得到如下结论:

  1. 使用Fusion First有助于降低计算代价,但是准确率有显著下降。
  2. 使用Fusion Last也是极大降低了计算代价,top-1 accuracy仅仅下降了0.1个百分点。
  3. 同时使用Fusion First和Fusion Last相结合的CSP所采用的融合方式可以在降低计算代价的同时,提升准确率。

下图是DenseNet的示意图和CSPDenseNet的改进示意图:

在这里插入图片描述

改进点在于CSPNet将浅层特征映射为两个部分,一部分经过Dense模块(图中的Partial Dense Block),另一部分直接与Partial Dense Block输出进行concate。

CSP思想的应用

CSP思想也可以应用到ResNet或者ResNeXt中:

在这里插入图片描述

总结

CSPNet和PRN都是一个思想,将feature map拆成两个部分,一部分进行卷积操作,另一部分和上一部分卷积操作的结果进行concate。

从实验结果来看,分类问题中,使用CSPNet可以降低计算量,但是准确率提升很小;在目标检测问题中,使用CSPNet作为Backbone带来的提升比较大,可以有效增强CNN的学习能力,同时也降低了计算量。

  • 7
    点赞
  • 87
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Rocky Ding*

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值