LQ-Nets: Learned Quantization for Highly Accurate and Compact Deep Neural Networks

ECCV-2018

ABSTRACT

虽然权重和激活值的量化是深度神经网络(DNN)压缩的有效方法,并且具有很大的潜力来提高利用位操作的推理速度,但是在量化模型和full precision模型之间的预测精度方面仍然存在明显的差距。为了弥补这个差距,我们提出了对量化的,位操作兼容的DNN及其相关量化器的联合训练方法,而不是使用固定的手工量化方案,如均匀或对数量化。我们学习量化器的方法适用于任意位精度(arbitrary bit)的网络权重和激活,并且我们的量化器很容易训练。对CIFAR-10和ImageNet数据集的全面实验表明,我们的方法可以很好地适用于各种网络结构,如AlexNet,VGG-Net,GoogLeNet,ResNet和DenseNet,在准确度方面超过以前的量化方法。代码可从https://github.com/Microsoft/LQ-Nets获取。

我们提出的方法可以用任意位宽量化权重和激活值。 与大多数先前的方法不同,我们的量化器在网络训练期间自适应地学习。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值