【论文速看】DL最新进展20241004-目标检测、Diffusion、CNN

【目标检测】

[ECCV2024] Integer-Valued Training and Spike-Driven Inference Spiking Neural Network for High-performance and Energy-efficient Object Detection

论文链接:https://arxiv.org/pdf/2407.20708

代码链接:https://github.com/BICLab/SpikeYOLO

在这里插入图片描述


[ECCV 2024] Integer-Valued Training and Spike-Driven Inference Spiking Neural Network for High-performance and Energy-efficient Object Detection

论文链接:https://arxiv.org/pdf/2407.20708

代码链接:https://github.com/BICLab/SpikeYOLO

受大脑启发的脉冲神经网络(SNNs)在生物合理性和低功耗方面优于人工神经网络(ANNs)。由于性能较差,SNNs的应用目前仅限于简单的分类任务。这项工作致力于弥合ANNs与SNNs在目标检测方面的性能差距。本文围绕网络架构和脉冲神经元展开。首先,过于复杂的模块设计导致在将YOLO系列转换为相应的脉冲版本时出现脉冲退化现象。设计了一种SpikeYOLO架构,通过简化原始YOLO并结合元SNN块来解决这个问题。其次,目标检测对膜电位转换为二进制脉冲过程中的量化误差更为敏感。为了应对这一挑战,设计了一种新的脉冲神经元,该神经元在训练期间激活整数值,同时通过在推理期间扩展虚拟时间步长来保持脉冲驱动。所提出的方法在静态和神经形态目标检测数据集上都得到了验证。在静态COCO数据集上,获得了66.2% mAP@50和48.9% mAP@50:95,分别比之前最先进的SNN提高了15.0%和18.7%。在神经形态Gen1数据集上,达到了67.2% mAP@50,比具有等效架构的ANN高出2.5%,并且能效提高了5.7倍。

在这里插入图片描述


【Diffusion】

[NeurlPS 2024] Faster Diffusion: Rethinking the Role of UNet Encoder in Diffusion Models

论文链接:https://arxiv.org/pdf/2312.09608

代码链接:https://github.com/hutaiHang/Faster-Diffusion

在扩散模型中,一个关键组成部分是用于噪声预测的UNet。虽然有几项研究已经探讨了UNet解码器的基本特性,但其编码器在很大程度上仍然未被探索。这项工作进行了对UNet编码器的首次全面研究。通过实证分析了编码器特征,并对它们在推理过程中的变化提出了重要见解。特别是,作者发现编码器特征变化平缓,而解码器特征则在不同时间步长上表现出显著变化。这一发现启发在特定的相邻时间步长省略编码器,并在之前的时间步长循环复用编码器特征以供解码器使用。基于这一观察,引入了一种简单但有效的编码器传播方案,以加速一系列任务的扩散采样。借助所提传播方案,能够在某些相邻时间步长并行执行解码器。此外,还引入了一种先验噪声注入方法,以改善生成图像的纹理细节。除了标准的文本到图像任务外,还在其他任务上验证了所提方法:文本到视频、个性化生成和参考引导生成。在不利用任何知识蒸馏技术的情况下,所提方法分别将Stable Diffusion (SD)和DeepFloyd-IF模型的采样速度提高了41%和24%,同时保持高质量的生成性能。

在这里插入图片描述


【CNN】

[2024] [RE] NETWORK DECONVOLUTION

论文链接:https://arxiv.org/pdf/2410.01189v1

代码链接:https://github.com/lamps-lab/rep-network-deconvolution

本研究旨在重现Ye等人在2020年发表的《Network Deconvolution》一文中的一系列发现。该论文提出了一种用于卷积神经网络模型训练的优化技术。所提出的“网络反卷积”技术用于在数据输入每一层之前去除像素级和通道级的相关性。特别地,检验了作者关于使用网络反卷积代替批量归一化能提升深度学习模型性能这一主张的有效性。本文作者努力证实了这一主张的有效性,成功地再现了原文中表1和表2报告的结果。研究涉及367个独特的实验,涵盖多个架构、数据集和超参数配置。对于表1,尽管与原始值相比存在一些微小的准确性偏差(在10%以内),但整体趋势与原始研究的发现一致,特别是在用20和100个周期训练模型时。对于表2,所有14个再现值都与原始值一致。此外,还记录了表1中每个架构在CIFAR-10和CIFAR-100数据集上分别用1、20和100个周期设置的训练和测试时间。还记录了表2中架构在ImageNet数据集上的总执行时间。
在这里插入图片描述


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IRevers

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值