模型压缩

模型压缩

量化模型(Quantized Model)是一种模型加速(Model Acceleration)方法的总称, 包括二值化网络(Binary
Network)、 三值化网络(Ternary Network)、 深度压缩(Deep Compression)、 多比例量化等

为什么要压缩网络?

做过深度学习的应该都知道,NN大法确实效果很赞, 在各个领域轻松碾压传统算法, 不过真正用到实际项目中却会有很大的问题:

计算量非常巨大; 模型特别吃内存;

这两个原因,使得很难把NN大法应用到嵌入式系统中去, 因为嵌入式系统资源有限,而NN模型动不动就好几百兆。
所以,计算量和内存的问题是作者的motivation;

如何压缩?

论文题目已经一句话概括了:
Prunes the network:只保留一些重要的连接;
Quantize the weights:通过权值量化来共享一些weights;
Huffman coding:通过霍夫曼编码进一步压缩;

效果如何?

Pruning:把连接数减少到原来的 1/13~1/9; Quantization:每一个连接从原来的 32bits 减少到 5bits;

最终效果:

把AlextNet压缩了35倍,从 240MB,减小到 6.9MB;

  • 把VGG-16压缩了49北,从 552MB 减小到 11.3MB;
  • 计算速度是原来的3~4倍,能源消耗是原来的3 ~ 7倍;
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值