![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
脉冲神经网络(SNN)论文阅读
文章平均质量分 96
lan人啊
这个作者很懒,什么都没留下…
展开
-
脉冲神经网络(SNN)论文阅读(五)-----AAAI-2024 时间步长逐渐收缩的SNN
Temporal Transformer:设计了轻量化的Temporal Transformer来转换信息的维度,并最大化地保留有价值的信息。MLF方法基于LIF神经元,其主要思路为使用MLF unit(可以理解为新的脉冲神经元)替换掉SNN中的LIF神经元。后面的阶段时间步长较小,以降低整体的推理时延。需要在时间步长收缩的同时转换前一个阶段的输出维度,以使其能够用作后一个阶段的输入。将SNN划分为多个阶段,其中每个阶段的时间步长逐渐收缩降低。时间步长收缩需要解决的问题:假设前后两个阶段的时间步长分别为。原创 2023-12-23 15:34:45 · 1796 阅读 · 6 评论 -
2024年顶会、顶刊SNN相关论文----------持续更新中
2024年脉冲神经网络(Spiking Neural Network,SNN)相关论文原创 2023-12-23 14:17:02 · 4307 阅读 · 12 评论 -
2023年顶会、顶刊SNN相关论文
这篇博客主要用于记录2023年在一些顶会顶刊(AAAI、CVPR等)上发表的一些不错的SNN方面的论文,会附上相关论文的链接,正在更新中…原创 2023-02-07 14:44:30 · 7462 阅读 · 10 评论 -
脉冲神经网络(SNN)论文阅读(四)-----IJCAI-2022 多级发射方法的脉冲神经网络
论文由浙江大学(唐华锦组)研究人员发表于ICJAI 2022,通过使用MLF方法和spiking DS-ResNet取得了很好的效果原创 2022-12-22 16:55:18 · 1672 阅读 · 0 评论 -
脉冲神经网络(SNN)论文阅读(三)-----高精度低时延的ANN转换SNN方法
北京大学于肇飞组发表于ICLR 2022的论文Optimal ANN-SNN Conversion for High-accuracy and Ultra-low-latency Spiking Neural Networks,提出使用quantization clip-floor-shift activation function去替代ANN中的ReLU激活函数后将其转换为SNN可以在较小的time step下获得较高的精度。......原创 2022-06-12 15:58:52 · 3292 阅读 · 1 评论 -
2022年顶会、顶刊SNN相关论文
2022年顶会、顶刊脉冲神经网络相关优秀论文收集原创 2022-04-15 17:01:17 · 15913 阅读 · 20 评论 -
脉冲神经网络(SNN)论文阅读(二)-----STBP算法训练高性能SNN
论文提出了STBP算法,构建了迭代的LIF模型能够同时利用空间域和时间域信息对网络进行训练,又介绍了四种近似脉冲活动导数的曲线来进行误差的反向传播。使得不使用任何复杂的训练技巧(如正则化、归一化等)来直接训练SNN就能取得很好的效果。...原创 2022-03-28 15:53:18 · 8089 阅读 · 28 评论 -
脉冲神经网络(SNN)论文阅读(一)-----Going Deeper With Directly-Trained Larger Spiking Neural Networks
论文提出了一种针对SNN的归一化(regularization)方法,并构建了超过50层的深度脉冲残差网络,在DVS-Gesture数据集上取得了SOTA的结果。原创 2022-03-20 15:58:33 · 8360 阅读 · 5 评论