深度学习神经网络量化

主要问题

DNN(Deep Neural Networks)的冗余性决定了参数个数不会对网络的精度造成影响。此外,SGD(Stochastic Gradient Descent)所需要的精度仅为6~8bit,因此合理的量化网络也可保证精度的情况下减小模型的存储体积

影响

DNN压缩看参考Stanford大学Han Song博士的几篇论文,如下:

  • Learning both Weights and Connections for Efficient Neural Networks

  • Regularizing Deep Neural Networks with Dense-Sparse-Dense Training

  • Compressing Deep Neural Networks with Pruning , Trained Quantization and Huffman Coding

算法的主要实现思路是发现对网络贡献较小的参数并精简,然后重新训练精简后的稀疏网络以达到减少非0网络参数的个数并保留或提高网络精度的目的,此类方法属于改变网络密度类方法。
这里写图片描述
图1 Deep Compression的深度神经网络剪枝,量化和编码的示意框图。

量化技术

深度神经网络的量化技

  • 5
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值