加法神经网络概念是什么,加法神经网络概念解释

加法神经网络AdderNet由北京大学、华为诺亚方舟实验室和鹏城实验室的研究人员提出,旨在通过替换卷积层的乘法运算以提高深度学习在移动设备上的效率。AdderNet使用L1距离替代乘法,其特征倾向于聚集,且在MNIST、CIFAR-10和SVHN数据集上表现接近传统CNN。该网络的权重分布遵循拉普拉斯分布,与CNN的高斯分布不同。研究表明,AdderNet在性能和能耗方面具有潜力,有望应用于图像分类、目标检测和语义分割等领域。
摘要由CSDN通过智能技术生成

加法网络"宇宙"来了!AdderNet极简硬件设计曝光,对此你怎么看?

在深度学习里,乘积是个避免不了的运算,比如做图像识别的卷积层,就需要做大量的乘法。但是,与加法运算相比,乘法运算的计算复杂度高得多。

现在的深度学习在很大程度上依赖于GPU硬件,做大量的乘法运算,限制了它在移动设备上的应用,需要一种更高效的方法。 如果能够抛弃乘法运算,是不是会让代码运行速度更快呢?

来自北京大学、华为诺亚方舟实验室、鹏城实验室的研究人员提出了一种加法器网络AdderNet,去掉卷积乘法,并设计一种新的反向传播算法,结果也能训练神经网络。

而且实验结果证明了,这种方法在MNIST、CIFAR-10、SVHN上已经接近传统CNN的SOTA结果。

加法网络早已有之,早在2015年,Bengio等人就提出了二元权重(1或-1)神经网络,用简单的累加运算来代替乘法,提高深度学习硬件的运行效率。

紧接着在2016年,Bengio等人进一步提出了二元神经网络(BNN),不仅是权重,连激活函数也被设定为二元形式。 尽管将深度神经网络二元化可以极大地降低了计算成本,但是原始识别精度经常无法保持。

另外,二元网络的训练过程不稳定,并且通常收敛速度较慢。卷积通常作为默认操作从图像数据中提取特征,若引入各种方法来加速卷积,则存在牺牲网络性能的风险。 如何让避免CNN中的乘法呢?

研究人员使用L1了距离。L1距离是两点坐标差值的绝对值之和,不涉及乘法。加法运算是L1距离中的主要操作,使用补码可以轻松地将求差值的运算转化为加法。

研究人员在此基础上提出了加法器网络AdderNet,不同类别的CNN特征按其角度来划分。由于AdderNet使用L1范数来区分不同的类,因此AdderNet的特征倾向于聚集到不同的类中心。

可视化的结果表明,L1距离可用作深度神经网络中滤波器与输入特征之间距离的相似性度量。由此进行优化的方法叫做符号SGD(signSGD)。

但是,signSGD几乎永远不会沿着最陡的下降方向,并且方向性只会随着维数的增长而变差。

最后,在CIFAR-10的图像分类任务中,AdderNet相比原始的二元神经网络BNN性能有大幅的提升,并且性能已经接近了传统CNN的结果。

这种方法训练的得到的权重分布也和CNN有很大的不同,AdderNet的权重服从拉普拉斯分布,而CNN的权重服从高斯分布。

个人认为,在未来的工作中,他们将研究AdderNet的量化结果,以实现更高的速度和更低的能耗,以及AdderNet的通用性,不仅用于图像分类,还将用到目标检测和语义分割等任务中。

谷歌人工智能写作项目:神经网络伪原创

神经网络是什么

神经网络是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型写作猫。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。

生物神经网络主要是指人脑的神经网络,它是人工神经网络的技术原型。

人脑是人类思维的物质基础,思维的功能定位在大脑皮层,后者含有大约10^11个神经元,每个神经元又通过神经突触与大约103个其它

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值