大大减少网络参数的squeezenet

squeezenet是一种为了解决深度学习模型过大问题而设计的网络,通过使用1x1卷积和FIRE模块减少了50倍参数,同时保持高识别准确率。网络设计包括squeeze层和expand层,通过实验分析,探讨了FIRE模块的压缩比例和3x3卷积核数量对性能的影响,以及如何进一步压缩网络。
摘要由CSDN通过智能技术生成

一、简介

近些年来深度学习在计算机视觉方面取得了突飞猛进的发展,但是目前深度学习存在着一个非常严重的问题就是模型过大,对计算资源的需求太多,所以目前深度学习在移动端的应用还比较有限。为此网络压缩成为了神经网络研究的一个重点,一般神经网络的压缩方法有对网络的裁剪、网络的量化等,而从网络的设计上来进行考虑,从根本上减少网络的冗余,也是网络压缩的重要手段,本文所介绍的squeezenet就是从这方面来解决网络模型较大的问题的,相比于Alexnet,它能够减少50倍参数的情况下达到同样的识别准确率,因此该网络也是移动端使用比较多的物体识别网络。

二、网络设计

1、本文主要根据以下三个方面来设计网络,从而减少网络的参数

(1)、使用1x1的卷积核来代替3x3的卷积核,从而能将卷积核的参数减少9倍

(2)、减少3x3卷积的通道数,每一层的卷积参数为(输入通道数*滤波器个数*(3*3)),因此减少输入通道数的个数,可以大大减少参数。

(3)、卷积神经网路中大的激活图能够有更高的准确率,因此在网络的后面进行下采样,以便卷积层能够有更大的激活图从而保证网络有较高的识别准确率。

文中指出第1、2步可以在保证模型识别准确率的情况下来尽量的减少参数的数量,而第三步可以在参数受限的情况下来最大化模型的准确率。

2、根据上面的这三条经验,作者设计了名为FIRE的模块,整个模块如图1所示。从图中可以看出FIRE模块可以分为两部分,一部分为squeeze layer,文中用

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值