深度学习-模型压缩之Quantization & Binarization方向论文阅读笔记

深度学习-模型压缩之Quantization & Binarization方向论文阅读笔记

论文:Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to +1 or 1

  • Weight and Activation
    首先,该论文主要把weight和激活函数结果activation在训练时都做了二元化操作。具体来说,文章介绍了两种binarization方法,确定法(deterministic)和随机法(stochastic):

    • deterministic:给定x,若x > 0,返回+1,反之返回-1。
    • stochastic:根据x的值,计算返回+1的概率p,在做二元化操作时,以p为概率返回1,反之返回-1。具体p的计算公式为 σ(x)=clip(x+12,0,1)=max(0,min(1,x+12)))

    这里有一个例外,就是input layer,它的输出通常是image信息,文中并没将其binarized。

  • Gradient

    • gradient在实现中保留了浮点数的形式,原因应该是为了保证SGD的有效。

    • 在计算gradient时,会对weights和activations加一些noise以增加generalization。(待定,看论文公布的实现再确认)

  • Propagation

    • 因为前向的时候相当于是对weight和activation求了个sign函数,而sign()的导数几乎处处为0,这显然没法用到后向的计算中,因此需要找到一个sign函数导数的估计。

    • 论文中选择的是 1

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值