PACT: PARAMETERIZED CLIPPING ACTIVATION FOR QUANTIZED NEURAL NETWORKS

本文的主要贡献有三点:
1、提出了pact方法,它给激活函数设定了一个可学习的α截断参数。
2、在2bit以下,它的效果比所有当时的模型都好;4bit的精度接近单精度的表现。
3、它可以提供一种平衡模型精度和复杂度的方法。

量化权重相当于是将权重的损失函数的假设空间离散化,因此可以通过训练来弥补由量化导致的误差,但传统的激活函数却并没有任何可训练参数,因此不能这样做。

ReLU已经成为现在最为流行的激活函数之一了,但它的问题是,它没有上界,因此很难用低位数据来表示它。作者用resnet20在cifar10上做了实验,证明对ReLU的量化会导致严重的精度下降:
在这里插入图片描述
通过使用一个截断的激活函数已经被证明可以有效地减轻这个问题,但是如何获得合适的截断位置还是一个难题。另外,从fig1的右边可以看出,即使是使用了截断的量化ReLU函数,其验证误差还是明显比baseline要高。

这个问题被半波高斯量化方法部分地解决了:他们观察到在BN层后的激活层接近均值为零,单位方差的高斯分布(这里我不理解,BN层后面要接一个平移和拉伸的操作,那分布就不应该是这种。如果不是写错了,那就是BN的这种平移和拉伸的操作对分布的影响很小)。他们使用Lloyd算法来寻找这种高斯分布的最佳量化尺度并应用于网络的所有层。但这种方法的问题在于&#x

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值