AI实战:深度学习模型压缩:模型裁剪——Pruning with Tensorflow

前言


从工程角度来说,模型压缩其目的是将算法更稳定、高效的落地在硬件平台上,效率是其追求的目标。复杂的模型固然具有更好的性能,但是高额的存储空间、计算资源消耗是使其难以有效的应用在各硬件平台上。


本文总结深度学习模型裁剪的一些方法及开源代码分享。



模型裁剪


  • 深度学习模型裁剪方法:

    1、剪枝

    2、权值共享

    3、量化

    4、神经网络二值化



  • Pruning经典开源代码及论文

    1、《TensorFlow implementation of “Iterative Pruning”》

    实现基于论文:Learning both Weights and Connections for Efficient Neural Network (http://arxiv.org/pdf/1506.02626v3.pdf)

    核心思想:学习重要的连接,根据连接的权重进行裁剪,fine-tuning让网络保持稀疏的连接。

    下面是主要内容,包括在CPU、GPU上不同pruning比例的加速效果对比:
    在这里插入图片描述
    github地址:https://github.com/garion9013/impl-pruning-TF


    2、《Deep compression》

    实现基于论文:Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding (https://arxiv.org/abs/1510.00149)

    核心思想:裁剪(阈值)、量化(8bit,存储方式)、哈夫曼编码

    主要内容如下:
    在这里插入图片描述
    github地址:https://github.com/WojciechMormul/deep-compression


3、《Pruning with Tensorflow》

核心思想:删除small Weights,然后fine-tuning模型

主要内容如下:
在这里插入图片描述
github地址:https://github.com/ex4sperans/pruning_with_tensorflow



其他论文

1、Exploiting linear structure within convolutional networks for efficient evaluation.

2、Eie: Efficient inference engine on compressed deep neural network.

3、Deep Model Compression: Distilling Knowledge from Noisy Teachers

4、PerforatedCNNs: Acceleration through Elimination of Redundant Convolutions

5、PRUNING FILTERS FOR EFFICIENT CONVNETS

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

szZack

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值