挤压网络SqueezeNet

卷积神经网络一般规模较大,参数较多,比如AlexNet总共8层,65万个神经元和6000万个参数。其他网络,像VGGNet,ResNet和DenseNet等,还可能更复杂,简化模型结构,压缩模型的参数,就成为改进卷积神经网络的必要问题。
为了利用较少的网络参数获得相近的性能,landola等人提出了一种压缩结构,所产生的结果称为挤压网络SqueezeNet。这种结构对卷积神经网络进行结构压缩,遵循下面3个基本的设计测略:

  1. 使用1X1卷积核代替3X3卷积核
  2. 减少3X3卷积核的输入通道数量
  3. 推后下采样,增大卷积层的激活图

在这三个策略中,前两个策略用于减少网络参数的总体预算,第三个策略用于在有限参数预算的条件下计算更多的卷积特征,综合起到保持甚至提供准确率的效果,基于这些策略可以得到一种SqueezeNet网络模型。
在这里插入图片描述
上图表示输入227X227X3的彩色图像。另外,还包含2个独立的卷积层、4个池化层、8个火焰模块,1个softmax输出层。
SqueezeNet的最大特点是火焰模块,每个火焰模块由两个卷积层组成,一个为压缩层,另一个为扩展层。压缩层只有1X1大小的卷积核,经过Relu激活函数输入到扩展层。扩展层可以由1X1和3X3大小的卷积核,在经过Relu输入到下一层。在火焰模块中,一般要求压缩层的通道数量小于扩展层的数量,这样有助于限制卷积核的输入通道数量。
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值