DOREFA-NET: TRAINING LOW BITWIDTH CONVOLUTIONAL NEURAL NETWORKS WITH LOW BITWIDTH GRADIENTS

Dorefa-Net提出了一种能够在保持模型精度的同时,对权重、激活层和梯度进行任意精度量化的方法。通过使用Straight-Through Estimator (STE)解决量化过程中的不可导问题,它成功地实现了低比特运算的神经网络。实验证明,量化顺序按梯度、激活层、权重的精度降序排列效果最佳。尽管存在一些可以改进的地方,如量化方程和参数设置,但Dorefa-Net为低比特神经网络的实现提供了重要的思路。
摘要由CSDN通过智能技术生成

BNN和异或网将权重和卷积层的值进行量化,进而将在前向传播过程中花费最多的卷积操作转化为了两个bit向量的逐比特的点积:
在这里插入图片描述
这里bitcount计算比特向量中比特的数量。

之前的网络都没能在反向传播保持8比特以下的精度的同时,能够拥有可接受的精度。

dorefa-net的创新点在于:
1、它能够以任意的精度量化权重、激活层和梯度。
2、由于比特卷积可以高效地在各种设备上实现,因此他为在各种软件上实现神经网络提供了方法。
3、实验证明,为了尽可能地保持模型精度,对量化精度的要求的降序排列是梯度、激活层和权重。
4、实验证明了dorefa-net的有效性。

作者强调了一点,在量化权重和激活层时,要用确定的函数来做,但梯度要进行随机量化。

上面提到的x·y是当它们是1比特时的,若它们是多比特的数字,则乘法规则变为:
在这里插入图片描述
其复杂度为O(MK)。

STE

因为我们要用量化的方式来表示数据,那么在计算梯度时就会出现问题:因为量化后的数值的表达能力是有限的,这使得导数并不总是能够正确地表示。

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值