2023年顶会、顶刊SNN相关论文

原文链接:https://blog.csdn.net/qq_43622216/article/details/128918566

个人收集精力有限,欢迎各位评论或者私信告知SNN相关论文研究!

目录

说明

这篇博客主要用于记录2023年在一些顶会顶刊(AAAI、CVPR等)上发表的SNN相关论文,以及相关论文的链接及简单介绍。
更新SNN相关论文、动态信息,欢迎浏览讨论!

AAAI2023

IJCAI(International Joint Conference on Artificial Intelligence)

ICASSP(IEEE International Conference on Acoustics, Speech and Signal Processing)

Knowledge-Based Systems

Pattern Recognition

  • 论文1: Joint A-SNN: Joint Training of Artificial and Spiking Neural Networks via Self-Distillation and Weight Factorization
    • 中国航天科工集团公司智能科学技术研究院研究人员发表于Pattern Recognition

    • 将网络(ANN和SNN)分为多个stage,每个stage后跟着全局平均池化和全连接层,每一个输出都和label计算交叉熵loss。
      在这里插入图片描述

    • 每一个stage,ANN的输出作为label和SNN对应的输出计算KL散度loss。ANN的输出进行detach处理。
      在这里插入图片描述

    • ANN和SNN提取到的特征可能有不同的标准化幅度。每一个stage,ANN的输出作为label和SNN对应的输出计算L2 norm loss(向量的模的平方,不开根号)。ANN的输出进行detach处理。
      在这里插入图片描述

    • 前几个stage的输出计算loss能够缓和SNN中由于梯度爆炸/消失引起的前几层网络无法训练的问题。

    • 最终的训练loss为: 在这里插入图片描述

    • 提出了weight-factorization training (WFT):对ANN和SNN的参数进行因子分解,使其具有相同的奇异向量(U和V),但是各自的奇异值可以不同。在这里插入图片描述

    • U、V以及ANN和SNN的对角矩阵基于梯度下降进行优化。

ICML

CVPR

ICCV(共10篇)

  • 论文1: Deep Directly-Trained Spiking Neural Networks for Object Detection

    • 由中科院(李国齐)、西安交大、清华大学、北京大学、华为等机构研究人员发表于ICCV 2023。
    • 提出了Energy-efficient Membrane-Shortcut ResNet(EMS-ResNet)和EMS-YOLO,实现低能耗、高效的目标检测。
      在这里插入图片描述
  • 论文2: Towards Memory- and Time-Efficient Backpropagation for Training Spiking Neural Networks

    • 由香港中文大学、北京大学(Zhouchen Lin)、鹏城实验室等研究人员发表于ICCV 2023。
    • 发现时间维度的梯度和空间维度的梯度相比很小,梯度中的空间部分主导着梯度。因此提出了Spatial Learning Through Time (SLTT)方法忽视训练过程中的时间关系,从而在每个时间步长内可以单独更新参数以降低训练过程中的时间和内存开销。
    • SLTT-K:训练过程中的每次迭代随机选择K个时间索引,仅在这K个时间步长中更新参数。
  • 论文3: Masked Spiking Transformer

    • 由香港科技大学(广州)许人镜组、北卡罗莱纳州立大学、香港大学等研究人员发表于ICCV 2023。
    • 基于quantal synaptic failures(量子突触失效,说明神经信号传输过程中丢失的信息可能不会影响突触后神经元的计算信息,但能够降低能耗),构建ANN转SNN的Transformer模型。
    • 提出了Masked Spiking Transformer(MST),合并了Random Spike Masking(RSM)方法。
    • 使用Swin Transformer作为backbone,把LN替换成BN,使用QCFS转换ANN到IF神经元。
    • RSM:随机mask一部分输入的脉冲信号。
  • 论文4: Unleashing the Potential of Spiking Neural Networks with Dynamic Confidence

    • 由曼彻斯特大学研究人员发表于ICCV 2023。
    • 为每一个样本动态地决定SNN推理应该使用的时间步长。
  • 论文5: Membrane Potential Batch Normalization for Spiking Neural Networks

    • 由中国航天科工集团公司智能科学技术研究院等研究人员发表于ICCV 2023。
    • 在脉冲神经元累积膜电势之后对膜电势使用BN,然后再产生脉冲。使用重新参数化在推理时将BN合并入发射阈值,因此不影响推理效率。
  • 论文6: Inherent Redundancy in Spiking Neural Networks

    • 由西安交大、自动化所李国齐组等研究人员发表于ICCV 2023。
    • 使用注意力机制减少冗余的脉冲。
    • 先将接收到的输入从时间和通道维度划分为两组,对于每一组单独应用空间注意力机制然后再进行拼接。调整膜电势分布从而优化输出的脉冲。
  • 论文7: Temporal-Coded Spiking Neural Networks with Dynamic Firing Threshold: Learning with Event-Driven Backpropagation

    • 由电子科技大学(屈鸿、张马路组)、诺森比亚大学、清华大学等研究人员发表于ICCV 2023。
  • 论文8: RMP-Loss: Regularizing Membrane Potential Distribution for Spiking Neural Networks

    • 由中国航天科工集团公司智能科学技术研究院等研究人员发表于ICCV 2023。
    • 使用额外的损失项限制脉冲神经元的膜电势向0/1靠近。使用MPR(ECCV 2022)里提出的函数。
  • 论文9: Efficient Converted Spiking Neural Network for 3D and 2D Classification

    • 由厦门大学、清华大学、东北大学等研究人员发表于ICCV 2023。
    • 应用ANN转SNN进行3D分类(点云)。
    • 阈值的初始化:逐层设置能使得ANN和SNN输出的KL散度最小的脉冲神经元阈值。
    • Adaptive Dynamic Threshold Based on Activation State:用于转换后的推理时,基于未激活的神经元比例计算一个系数w,当比例较高时 w w w较低,从而 w w w与阈值的加权较低,让更多神经元产生脉冲。
    • adaptive firing mechanism:使用α调节膜电势,膜电势达到多少倍的阈值就发射几个脉冲(多比特脉冲)。设置脉冲数量上界为 2 n − 1 2^n-1 2n1和下界为0
  • 论文10: SSF: Accelerating Training of Spiking Neural Networks with Stabilized Spiking Flow

    • 由中科院自动化所、西安交通大学等研究人员发表于ICCV 2023。

NeurIPS(共14篇)

ICLR

本文出自于CSDN-lan人啊,转载请注明!

  • 19
    点赞
  • 67
    收藏
    觉得还不错? 一键收藏
  • 10
    评论
PyTorch SNN是指使用PyTorch框架实现的脉冲神经网络SNN,Spiking Neural Network)。传统的神经网络模型使用连续的激活函数来处理输入,而脉冲神经网络模型则使用脉冲信号来模拟神经元之间的信息传递。 PyTorch是一个开源的深度学习框架,提供了丰富的神经网络相关功能和工具。PyTorch SNN利用PyTorch的强大计算能力和灵活性,为脉冲神经网络的建模和训练提供了方便的环境。 使用PyTorch SNN,首先需要定义脉冲神经元模型和连接方式。脉冲神经元模型一般包括神经元的电位和发放脉冲的机制,可以通过自定义PyTorch模块来实现。连接方式可以使用PyTorch中的全连接层或卷积层等。 然后,在PyTorch SNN中,输入数据可以以时间序列的形式进行处理。每个时间步长,输入数据通过脉冲神经元模型进行计算和传递。训练时,可以使用梯度下降等优化算法来调整神经元模型的参数,以使网络输出与目标输出尽可能接近。 PyTorch SNN具有较高的灵活性和可扩展性,可以进行各种类型的脉冲神经网络建模和训练。例如,可以构建具有时空动态性的网络,用于处理连续时间序列数据。此外,PyTorch SNN还可以与其他PyTorch功能和库进行结合,如图像处理、强化学习等,进一步扩展其应用范围。 总之,PyTorch SNN是使用PyTorch框架实现的脉冲神经网络,通过定义神经元模型和连接方式,并利用PyTorch的计算能力和优化算法,实现了对脉冲神经网络的建模和训练。
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值