Spiking Deep Residual Network阅读笔记

本文探讨了将ResNet转化为Spiking Residual Network的方法,通过shotcut标准化和采样误差惩罚机制,解决了SNN深度训练的难题。实验表明,这种方法在MNIST、CIFAR-10和CIFAR-100数据集上取得了SNN的最佳性能。
摘要由CSDN通过智能技术生成

Spiking Deep Residual Network

1. 摘要

近些年,SNN由于它的生物可塑性吸引了大众注意力。理论上,SNN具有与ANN一样的计算能力,而且在功耗方面要比ANN更加节能。但是,在目前看来,训练一个很深的SNN依旧存在很大困难。本篇文章,提出了一个方法来构造ResNet的脉冲版本。我们把训练好的ResNet网络转化为脉冲神经元组成的SpikingResNet。为了解决转化过程中的问题,文章提出了shotcut归一化机制来缩减连续的激活值,使之近似匹配SNN中的脉冲发放率;还提出一种逐层误差补偿方法来减少由离散导致的误差。在MNIST, CIFAR-10, 和CIFAR-100上做了实验,是目前SNN中性能最好的。

3.1 转换概述

这里写图片描述
如图,展示了转换ResNet到SpikingResNet的机制。通过假定Relu单元可以近似脉冲神经元的发放率,文章用IF神经元代替Relu。输入方式是图片输入,第一层卷积之后根据是否大于阈值判断输出脉冲。训好的权重先进行归一化,再根据BN缩减(论文中的2式)使用。

3.2 shotcut标准化

我们先考虑一个基本的残差单元,

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值