SqueezeNet解读

前言

本文章是作者看了SqueezeNet自己对原文的理解,如有错误,敬请指正。


一、ABSTRACT

本文主要讲通过压缩技术来减少Cnn的参数数量

二、INTRODUCTION AND MOTIVATION

在精确度相同的情况下,参数量较小的Cnn框架有以下优点:
(1)更有效的分布式训练
(2)将模型导入到客户端的开销更小
(3)可实现FPGA和嵌入式部署。

三、RELATED WORK

下面将从微观架构和宏观架构来介绍该模型

3.1、CNN MICROARCHITECTURE

随着设计深度cnn的趋势,手动为每一层选择滤波器尺寸变得很麻烦。为了解决这个问题,提出了由具有特定固定组织的多个卷积层组成的各种更高级别的构建块或模块。这些模块被叫做Cnn的MICROARCHITECTURE。

3.2 CNN MACROARCHITECTURE

CNN宏观体系结构定义为将多个模块组织成端到端CNN体系结构的系统级组织。

四、SQUEEZENET: PRESERVING ACCURACY WITH FEW PARAMETERS

4.1、 ARCHITECTURAL DESIGN STRATEGIES

减少Cnn架构参数的主要策略有以下三种方法:
(1)将3x3卷积替换为1x1卷积
(2)减少输入的通道数(由Squeeze Layer实现)
(3)在网络的后面层进行下采样

4.2、THE FIRE MODULE

下面是SqueezeNet用到的Fire模型:
在这里插入图片描述
Fire模型主要由压缩层和扩展层组成,
压缩层:是由11的卷积通道数记做 S1x1
扩展层:是由1
1卷积和3*3卷积的通道数分别记做 e1x1和 e3x3
条件:S1x1<(e1x1 + e3x3)
注:不要将S1x1,e1x1, e3x3错误的理解成卷积的层数。

4.3、THE SQUEEZENET ARCHITECTURE

SqueezeNet从一个独立的卷积层(conv1)开始,接着是8个Fire模块(fire2-9),以最终的conv层(conv10)结束。SqueezeNet在conv1, fire4, fire8和conv10层后执行max-pooling,步幅为2;下面是SqueezeNet完整架构:
在这里插入图片描述
在下表中给出了更多的细节

在这里插入图片描述

总结

提示:由于时间有限本文只对SqueezeNet进行简单的介绍,需要原文的可以通过以下链接进行获取链接: http://arxiv.org/abs/1602.07360
这篇论文主要是通过Fire模块来降低模型参数数量。
注:该文章为非盈利文章,此文章部分摘自网络如有侵权请联系删除小编的qq:2370154327

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值