Residual Squeeze VGG16

本文提出ResSquVGG16模型,通过改进的Fire Module结合ResNet的残差学习,压缩VGG16模型。在MIT Places365数据集上,模型训练时间减少23.86%,模型大小减小88.4%,同时保持识别精度。主要策略包括使用1x1卷积核替换部分3x3卷积,减少输入3x3卷积的通道数,以及在网络后期降采样。
摘要由CSDN通过智能技术生成

本人在学习深度压缩方面的知识,刚开始多久,自己建了一个QQ群希望能和大家一起讨论学习深度压缩加速的知识。

QQ群:621888628

1.本文的贡献

使用SQUEEZENET改进的Fire Module即(ResSquVGG16)来压缩VGG16模型,MIT Places365标准场景数据集上训练。在精度变化不大的情况下将训练时间减少了23.86%,模型大小缩小了88.4%。

 

2.方法

 设计原则:

 1)3x3的卷积核替换为1x1的卷积核

12年的AlexNet模型到15年ResNet模型,卷积核大小基本上都选择在3x3了,因为其有效性,以及设计简洁性。替换3x3的卷积kernel为1x1的卷积kernel可以让参数缩小9倍。但为了不影响识别精度,并不是全部替换,而是一部分用3x3,一部分用1x1。

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值