[京哥读论文]之BinaryConnect:Training Deep Neural Networks with binary weights during propagations

本文介绍了BinaryConnect方法,该方法在前向和反向传播中使用1bit二值权重,简化计算并减少存储需求。在DNN训练中,二值权重作为带噪声的权重能起到正则化作用,提高泛化能力。实验表明,这种方法在不量化激活函数的情况下,仍能实现有效训练。尽管存在不足,如仅量化权重,未量化激活,但BinaryConnect为深度学习的硬件优化提供了新思路。
摘要由CSDN通过智能技术生成

论文题目:BinaryConnect: Training Deep Neural Networks with binary weights during propagations_NIPS2015
引用量:927
code:https://github.com/MatthieuCourbariaux/BinaryConnect

这是我看的第一篇提出在DNN的前向和反向训练中用1bit的二值权重替代浮点权重,能够让硬件计算将乘法操作简化成简单的累加操作,能大量的减少存储空间。

我们知道正是由于神经网络参数量大,无法直接得到损失函数的最优参数,才采用了梯度下降的方式来逼近最优解,Sgd通过平均权重带来的梯度来得到一些小的带噪声的步长,尝试更新权重去搜索参数空间,因此这些梯度十分重要,要具有足够的分辨率,sgd至少需要6—8bits的精度[1],大脑突触的估计精度也是6—12bits。。如果采用量化权重,就会导致无法对权重直接求导,这种权重可以被看成是带噪声的权重。文章认为带噪声的权重往往能够带来正则化,使得泛化能力更好,类似dropout、dropconnect这种就是对激活值或者权重加入了噪声,它们表明只有权重的期望值需要是高精度的,添加噪声往往是有益处的,所以对权重进行量化理论角度是可行的,且在部分文章中发现对梯度随机取舍能够提供无偏离散化。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值