剪枝后 模型加速_论文分享|从零入门剪枝(一)

b5dd87e8052427853f04a8578398f796.png

首发于公众号 TowardsDeeplearning 来自专辑 《从零入门剪枝系列》


今天分享的论文是:Learning both Weights and Connections for Efficient Neural Networks。
这篇论文是 Han Song 在模型压缩方面很重要的论文。论文介绍了通过 magnitude 来学习重要连接,方法主要包括三个部分:1.训练一个网络,学习哪个连接是重要的 2.裁剪掉不重要的连接 3. 重新训练网络微调剩下连接的权重。
最终剪枝的结果,在 ImageNet 数据集上, Han Song 的方法把 Alexnet 参数减少9倍, 参数量从 61 million 到 6.7 million, 无精度损失。在 VGG 上,参数量减少13倍,从 138 million 到 10.3 million,也是无精度损失。背景
为什么要剪枝,这个其实很好理解,CNN模型虽然很好用,但是面临着模型比较大,在手机等移动设备上时,对能耗和网络带宽都是负担。因此需要剪枝去减小算力的消耗,节省资源。在实际工作中,剪枝其实已经变成了必不可少的一道工序了,我遇到最夸张的需求就是将一个1T算力的模型剪枝到10G以内,真的是很夸张。
论文细节
论文的剪枝方法包括三步,见图1,和卷积训练不同,模型学习的是连接的重要性,而不是权重(虽然权重大小表

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值