十五天掌握CNN——Residual Attention Networks ShuffleNet

魏老师学生——Cecil:学习卷积神经网络CNN之旅

Residual Attention Networks

利用Residual 和Attention 机制进行网络结构堆叠,从而得到一个更深入的特征信息,以在每个attention module中做出适应性变化,采用上采样和下采样结构。

主要创新点

  1. Stacked Network Structure:堆叠多个attention module 构建网络结构。
  2. Attention Residual Learning:一种优化思想,类似ResNet中基于残差的更新方式,提升模型性能。
  3. Bottom-up top-down feedforward attention:基于下采样-上采样机制,在特征图中加入特征权重。
    1
    2

ShuffleNet

  1. 满足在受限条件下的高效基础网络结构。基于 组群卷积 和 深度可分离卷积。
  2. 简单的组群卷积:导致每个卷积操作仅从某些部分的输入通道数据中导出,降低通道之间的信息流通,降低信息表达能力。
  3. 为保证信息表达能力,在组群卷积前进行channel的shuffle操作。1
    2
    3

对于channel的shuffle操作

  1. 输出通道:g×n
  2. reshape(g,n)
  3. 转置为(n,g)
  4. 扁平化,继续分组作为下一层输入。4
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值