Spiking Deep Residual Network

Spiking Deep Residual Network

  近些年,SNN由于它的生物可塑性吸引了大众注意力。理论上,SNN具有与ANN一样的计算能力,而且在功耗方面要比ANN更加节能。但是,在目前看来,训练一个很深的SNN依旧存在很大困难。
  本篇文章,提出了一个方法来构造ResNet的脉冲版本。我们把训练好的ResNet网络转化为脉冲神经元组成的SpikingResNet。为了解决转化过程中的问题,文章提出了shotcut归一化机制来缩减连续的激活值,使之近似匹配SNN中的脉冲发放率;还提出一种逐层误差补偿方法来减少由离散导致的误差。
  在MNIST, CIFAR-10, 和CIFAR-100上做了实验,是目前SNN中性能最好的。

  参考资料:
  https://blog.csdn.net/Kerrwy/article/details/80330802
  https://cloud.tencent.com/developer/news/208552

转换ResNet到SpikingResNet的机制

在这里插入图片描述

关键细节

  通过假定Relu单元可以近似脉冲神经元的发放率,文章用IF神经元代替Relu。输入方式是图片输入,第一层卷积之后根据是否大于阈值判断输出脉冲。训好的权重先进行归一化,再根据BN缩减(论文中的2式)使用。

  为了保持单元最大脉冲发放率,文章通过block的最大激活值来标准化block的输出。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值