文献阅读(82)二值化神经网络

  • 题目:Efficient Quantization for Neural Networks with Binary Weights and Low Bitwidth Activations
  • 时间:2019
  • 会议:AAAI
  • 研究机构:上海交大倪冰冰

1 abstract & introduction

本篇论文的主要贡献:

  1. 设计了一个新的激活函数CReLU
  2. 提出了多层二值化和线性/对数量化方法
  3. 最终的结果可以实现二值化的权重效果超过全精度模型

2 Clamping Rectified Linear Unit

过去有很多二值化网络的工作,他对之前的工作进行了总结,发现二值化网络的一些特性制约了行动

unbounded characteristic is disadvantageous for quantization since some outliers on the tail of distribution can lead to large quantization errors
无界特性不利于量化,因为分布尾部的一些异常值会导致较大的量化误差

于是提出了带上界的ReLU
在这里插入图片描述
后向传播是
在这里插入图片描述
损失函数是:
在这里插入图片描述
其中C是原来网络的损失函数,后面加一项就好了,g表示一次范式或二次范式

3 量化方法

3.1 前向近似

本质就是用二值化的数拟合训练好的权重,设 b i b_i bi表示第i个kernel,加粗表示是个向量, α i \alpha_i αi表示第i个kernel的缩放值scale:
在这里插入图片描述
最小化二者之间的残差,这是NP难问题,他用贪心法解决
在这里插入图片描述
在这里插入图片描述

3.2 后向近似

在这里插入图片描述
w带波浪线的表示量化之后的数值,s表示符号函数
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值