模型优化论文笔记4----保持准确性的同时得到更少参数的模型SqueezeNet

SqueezeNet是一种在保持高精度的同时大幅减少模型参数的深度学习架构。通过引入Fire模块,包含squeeze和expand层,论文探讨了微架构和宏架构的设计对准确性和模型尺寸的影响。结合Deep Compression,SqueezeNet的模型尺寸可降至0.5MB以下,仅为AlexNet的1/510。实验表明,SqueezeNet在ImageNet上的表现与AlexNet相当,但参数更少,适合资源有限的硬件环境。
摘要由CSDN通过智能技术生成

1 参考文献:
论文地址:https://arxiv.org/pdf/1602.07360.pdf
项目地址:https://github.com/DeepScale/SqueezeNet

2 主要思想:
保持准确性的同时得到更少参数的模型。
提出Fire module,包含squeeze layer和expand layer。
从微架构和宏架构两个角度探索Fire module内部和module之间的联系对accuracy的影响。
将SqueezeNet与Deep Compression结合,实现模型尺寸小于0.5MB,是AlexNet的1/510。

3 背景:
在同等精度的情况下,较小的CNN架构至少有三个优点:
(1)在分布式训练时需要较少的服务器间通信,从而更高效。
(2)更少的开销将一个新车型从云端导出到自动驾驶汽车,使得频繁更新变得可行。
(3)在FPGA等内存有限的硬件上部署更可行。

4 相关工作:
Model Compression模型压缩:基于现有的CNN模型,以有损方式进行压缩。例,奇异值分解用于预训练(Denton,2014),网络剪枝用0替代低于阈值的参数形成稀疏矩阵(Han,2015b),网络剪枝与量化,哈夫曼编码融合(Han,2015a)。
更高层次的构建块和模块:由多个具有特定固定组织的卷积层组成,解决为深层CNN手动选择过滤器尺寸的问题。例,GoohleNet提出Inception模块,组

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值