涨点神器!11种开源即插即用模块汇总!(附论文和代码)

写论文的时候,除了找创新点是难题之外,弄模型部分也是非常大的难题,得一点点编码,一点点调试,弄得人焦头烂额的。

那么,如何在确保质量的前提下,更高效地写论文呢?这就得提到即插即用的模块了,它就像是一盒乐高,让我们能快速组合各种设计好的模块,搭建出我们需要的模型,这样做不仅让建模速度提升,还保证了模型的创新性和有效性。

今天就跟大家分享11种开源即插即用模块,这些模块不仅有代码,还有对应的论文,有了它们写论文事半功倍!

1、SCConv:空间和通道重构卷积

论文:SCConv: Spatial and Channel Reconstruction Convolution for Feature Redundancy

简述:本文提出了一个新的卷积模块SCConv(空间和通道重构卷积),用于压缩CNN并减少冗余计算。SCConv包括空间重构单元(SRU)和通道重构单元(CRU),分别处理空间和通道冗余。SCConv可以简单地替换CNN中的标准卷积,实验证明,它可以在降低复杂性和计算成本的同时,提高模型性能。

图片

2、SENet:通道注意力模块

论文:Squeeze-and-Excitation Networks

简述:本文提出了一种新的架构单元"挤压激励"(SE)块,通过明确模拟通道间的依赖关系,适应性地校准通道特征反应。在此基础上,研究人员构建了SENet架构,其具有出色的通用性,SE块对于现有的先进深度架构来说,可以在极小的额外计算成本下提供重大的性能改进。

图片

3、ECA:高效通道注意力模块

论文:ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks

简述:本文提出了一个名为ECA的高效通道注意力模块,它不降维,仅用少量参数显著提升性能。通过1D卷积实现局部通道交互策略,并自适应确定最佳卷积核大小。实验证明ECA模块在ResNet50等网络中提高准确率,同时降低参数数量和计算成本。此模块在图像分类、对象检测和实例分割等多项任务中表现出更高的效率和性能。

图片

4、RefConv:重参数化重聚焦卷积

论文:RefConv: Re-parameterized Refocusing Convolution for Powerful ConvNets

简述:本文提出了一种新型的卷积模块RefConv(重参数化重聚焦卷积),作为传统卷积层的高效替代品,无需增加额外的推理成本即可提升模型性能。它通过对预训练模型中的卷积核应用一个可训练的变换,进而建立参数间新的联系,增强模型处理不同层次特征的能力。实验证明,RefConv能够在保持原有模型结构不变的情况下,显著提高图像分类、目标检测和语义分割任务的性能。

图片

5、SAN-SAW:域泛化语义分割模型

论文:Semantic-Aware Domain Generalized Segmentation

简述:本文提出了一个新的框架,其中包括两个模块:语义感知标准化(SAN)和语义感知白化(SAW)。SAN模块用于在不同图像样式之间进行类别级的特征对齐;SAW模块则用于对齐特征分布,并增强类内紧凑性与类间分离性。通过在多个标准数据集上的实验验证,这种方法各种主干网络上都表现出了明显优于现有技术的改进。

图片

6、HAT:混合注意力机制

论文:Activating More Pixels in Image Super-Resolution Transformer

简述:本文提出了一种称为混合注意力Transformer(HAT)的新型网络架构,它融合了通道注意力和窗口自注意力机制的长处,提高了模型处理全局和局部信息的能力。此外,研究人员还引入了一个跨窗口的注意力模块,用以强化邻近窗口特征间的互动。通过在训练阶段实行同任务预训练,进一步提升了模型性能。经过一系列实验,这个方法在性能上显著优于现有最先进技术,达到了1dB以上的提高。

图片

7、EMA:高效多尺度注意力模块

论文:Efficient Multi-Scale Attention Module with Cross-Spatial Learning

简述:本文提出了一种叫做EMA的新型多尺度注意力模块,它能够同时保持信息有效性和降低计算成本,EMA通过将通道分成子组和平衡特征组内的空间语义特征来实现这一目标。还设计了一个双分支结构,以编码全局信息,并通过跨维度的交互进一步加强特征。对CIFAR100图像分类和MS COCO与VisDrone2019数据集上的目标检测进行的实验验证了EMA的有效性,它在不增加网络复杂度的前提下,超越了多个现有的注意力机制。

图片

8、ParC-Net:位置感知型循环卷积

论文:ParC-Net: Position Aware Circular Convolution with Merits from ConvNets and Transformer

简述:本文提出了一个基于卷积网络的新模型ParC-Net,融合了视觉变换器的优点,核心创新是位置感知环式卷积(ParC),兼具全局感受野和位置敏感特性。ParC与挤压-激励操作结合,形成类似变换器的模型块,可替换卷积或变换器部分。实验证明,ParC-Net在常见视觉任务中性能优异,参数少、推理快。

图片

9、Focused Linear Attention:聚焦式线性注意力模块

论文:FLatten Transformer: Vision Transformer using Focused Linear Attention

简述:本文提出了一种新颖的Focused Linear Attention模块,以实现高效率和表达性。通过分析影响性能的关键因素,引入了一个简单而有效的映射函数和一个高效的等级恢复模块,以增强self-attention的表达性,同时保持较低的计算复杂度。大量的实验表明,这个线性注意力模块适用于各种先进的vision Transformers,并在多个基准测试中取得了持续的改进性能。

图片

10、FlashOcc:占据预测模型

论文:FlashOcc: Fast and Memory-Efficient Occupancy Prediction via Channel-to-Height Plugin

简述:本文提出了提出了即插即用的占用预测范式FlashOCC,快速、内存高效且精度高。它有两项创新:特征保存在BEV中,利用二维卷积;逻辑值从BEV转为3D空间。在Occ3D-nuScenes基准测试中,FlashOCC显著超越了最先进方法,证明了其在精度、效率和内存成本上的优势,展示了其部署潜力。

图片

11、 PromptIR:通用图像恢复

论文:PromptIR: Prompting for All-in-One Blind Image Restoration

简述:本文提出了一种名为PromptIR的新型学习方法,处理多种图像退化问题的通用解决方案。该方法通过编码与退化相关的提示信息来指导恢复网络,使其能够处理不同类型和程度的图像问题,如噪音、雨滴和雾霾,并取得领先效果。PromptIR作为一个轻量级的插件模块,可以适用于多种退化情况的图像恢复,无需预先知道具体损坏类型。

图片

码字不易,欢迎大家点赞评论收藏!

关注下方《享享学AI》

回复【即插即用】获取完整相关论文和代码

👇

  • 18
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
深度学习即插即用涨点是指通过在现有的深度学习模型中添加一些特定的层或模块,以提升模型的性能和效果。其中涨点指的是在验证集或测试集上的性能提升。 其中,DO-Conv是指Depthwise Over-parameterized Convolutional Layer,这是一深度学习中用于卷积操作的技术,可以减少参数量并提高模型的效率和推理速度。它通常应用于卷积神经网络(CNN)中,用于提取图像或其他数据的特征。 DeepLab是一用于语义图像分割的深度卷积网络,它使用了Atrous Conv(空洞卷积)技术。Atrous Conv允许网络以不同的采样率(或称为膨胀率)处理输入数据,以获得更大的感受野并捕捉更多的上下文信息,从而提高分割的准确性。 DCANet是一用于卷积神经网络的注意力学习方法,它通过学习连接的注意力模块来改善网络的性能。这方法可以使网络更加关注重要的特征并抑制不相关的特征,从而提高模型在各任务上的性能。 因此,要实现深度学习即插即用涨点,可以考虑使用DO-Conv、DeepLab和DCANet等技术,根据具体的任务和数据集的需求,选择合适的模块或层来增强模型的性能。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [大盘点 | 十大即插即用涨点神器!](https://blog.csdn.net/qq_36387683/article/details/108406297)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [【深度学习】真正的即插即用!盘点11CNN网络设计中精巧通用的“小”插件...](https://blog.csdn.net/fengdu78/article/details/124113703)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值