ICLR 2024 | 微软提出视觉新主干EfficientMod:融合卷积和注意力机制

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Mamba/多模态/扩散】交流群

添加微信:CVer5555,小助手会拉你进群!

扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!

43b273e90b7081e0cc0493056eae144c.jpeg

Efficient Modulation (EfficientMod) 融合了卷积和注意力机制的有利特性,同时提取空间上下文并对输入特征进行投影,然后使用简单的逐元素乘法将其融合在一起。EfficientMod的设计保证了高效性,而固有的调制设计理念则保证了其强大的表示能力

转载自:晓飞的算法工程笔记 公众号

论文: Efficient Modulation for Vision Networks

876360884644cfc501ee72ada2c77513.png
  • 论文地址:https://arxiv.org/abs/2403.‍19963

  • 论文代码:https://github.com/ma-xu/EfficientMod

Introduction


  视觉TransformerViT)在广泛的视觉任务中展现了令人印象深刻的成就,并为视觉网络设计贡献了创新的思路。得益于自注意力机制,ViTs在动态特性和长距离上下文建模的能力上与传统卷积网络有所区别。然而,由于自注意力机制在视觉标记数量上具有二次复杂度,其既不具备参数效率也不具备计算效率,这阻碍了ViTs在边缘设备、移动设备和其他实时应用场景上的部署。因此,一些研究尝试在局部区域内使用自注意力,或者选择性地计算信息标记,以减少计算量。同时,一些工作尝试将卷积和自注意力结合起来,以实现理想的效果和效率的折衷。

7a91585a0484b54fda649508169aead5.png

  最近的一些研究表明,纯卷积网络也能够与自注意力相比取得令人满意的结果。其中,FocalNetVAN以计算效率高和易于实现而著称,展现了领先的性能且显著优于ViT的对应模型。一般来说,这两种方法都使用大核卷积块进行上下文建模,并通过逐元素乘法调节投影输入特征(随后是一个MLP块),如图1b所示。这种设计统称为调制机制,它表现出有前景的性能,并且从卷积的有效性和自注意力的动态性中获益。尽管调制机制在理论上是高效的(从参数和FLOPs的角度来看),但在计算资源有限时推断速度不尽如人意。造成这种情况的原因主要有两个:

  • 冗余和等效操作,如连续的深度卷积和冗余的线性投影占据了大部分操作时间。

  • 上下文建模分支中的碎片化操作显著增加了延迟,并违反了ShuffleNetv2中的指导原则G3

  为此,论文提出了高效调制(Efficient Modulation),可以作为高效模型的基本构建块(见图1c)。与FocalNetVAN的调制块相比,高效调制块更加简单并继承了所有的优点(见图1b和图1c)。与Transformer块相比,高效调制块的计算复杂度与图像尺寸呈线性关系,强调大规模但局部的特征交互,而Transformer则与标记数量的立方相关并直接计算全局交互。与反向残差(MBConv)块相比,高效调制块使用更少的通道进行深度卷积,并融入了动态特性。

0617f6139da3d4523a2bc21e42194f44.png

  基于高效调制(Efficient Modulation)块,论文提出了基于纯卷积的新型高效网络架构EfficientModEfficientMod块与传统的自注意力块正交,并且与其他设计具有良好的兼容性。通过将注意力块与EfficientMod集成的混合架构,可以产生更好的结果。在不使用神经网络搜索(NAS)的情况下,EfficientMod在各种任务中展现出非常不错的性能。与最先进方法EfficientFormerV2相比,EfficientMod-sGPU上的速度比EfficientFormerV2-S225%,并且在top-1准确率上超过了EfficientFormerV2-S20.3个百分点。此外,EfficienntMod在下游任务中也显著超越了EfficientFormerV2,在ADE20K语义分割基准测试中,其mIoUEfficientFormerV2高出了3.6个百分点,而模型复杂度相当。

Method


Revisit Modulation Design

  • Visual Attention Networks

VAN提出了一个简单且有效的卷积注意力设计。具体而言,给定输入特征,首先使用一个全连接(FC)层(带有激活函数)将投影到一个新的特征空间,然后将其输入到两个分支。第一个分支提取上下文信息,第二个分支是一个恒等映射。使用逐元素乘法来融合来自两个分支的特征,随后添加一个新的线性投影。具体来说,VAN块可以写成:

  其中, 表示逐元素相乘, 表示具有核大小和扩张率的深度可分离卷积, 是上下文分支中的另一个全连接(FC)层。遵循MetaFormer的设计理念,VAN块被用作标记混合器,并且后续连接一个具有深度可分离卷积的双层MLP块作为通道混合器。

  • FocalNets

FocalNets引入了焦点调制来替代自注意力,同时享有动态性和较大的感受野。FocalNet还提出了一种并行的双分支设计,一个上下文建模分支自适应地聚合不同层次的上下文,一个线性投影分支将投影到一个新的空间。类似地,这两个分支通过逐元素相乘进行融合,然后使用一个FC层。形式上,FocalNet中的分层调制设计可以表示为(为了清晰起见,忽略全局平均池化层):

  其中, 包括由具有大小为的深度可分离卷积层分层提取的层上下文信息, 将通道特征投影到一个门控值。 是在每个卷积层之后的GELU激活函数。

  • Abstracted Modulation Mechanism

VANFocalNet均展示出了良好的表征能力,并表现出令人满意的性能。实际上,这两种方法都共享一些不可或缺的设计,可能就是性能提升的关键:

  1. 这两个并行分支是独立操作的,从不同的特征空间提取特征,类似于自注意力机制(如图1a所示)。

  2. 在上下文建模方面,两者均考虑了较大的感受野。VAN堆叠了两个具有扩张的大核卷积,而FocalNet引入了分层上下文聚合以及全局平均池化来实现全局交互。

  3. 这两种方法通过逐元素相乘将来自两个分支的特征融合在一起,这在计算上是高效的。

  4. 在特征融合之后采用了线性投影。

  与此同时,它们也存在着明显的不同设计,比如上下文建模的具体实现以及特征投影分支的设计(共享或独立投影)。基于上述相似之处并忽略特定的差异,论文将调制机制进行抽象,如图1b所示,并形式定义如下:

  这个抽象的调制机制在理论上继承了卷积和自注意力的优良特性,但实际以卷积方式运算,且具有令人满意的效率。具体地,公式 4 于逐元素相乘而具有类似自注意力的动态性。上下文分支还引入了局部特征建模,但也通过大的核大小实现了较大的感受野(这对效率来说不是瓶颈)。遵循VANFocalNet,在调制后引入一个两层MLP块。

Efficient Modulation

  尽管比自注意力更高效,但抽象的调制机制在理论复杂度和推理延迟方面仍无法满足移动网络的效率要求。因此,论文提出了高效调制(Efficient Modulation),旨在为高效网络量身定制的同时保留调制机制的所有优良特性。

  • Sliming Modulation Design

  通用的调制块具有许多零散的操作,如图1b所示。比如未考虑上下文建模实现的细节,引入了四个全连接(FC)层。正如ShuffleNetv2中的指导原则G3所述,即使通过调整通道数量可以降低计算复杂度,但太多的零散操作也将显著降低速度。因此,论文融合了MLP和调制块的FC层,如图1c所示。使用基于通过扩展因子来扩展通道维度,并利用来压缩通道数量。换句话说,MLP块与调制设计融合并且具有灵活的扩展因子,产生类似于MBConv块的统一块。

  • Simplifying Context Modeling

  为了提高效率,对上下文建模分支进行定制。给定输入,首先通过线性投影将投影到一个新的特征空间,然后使用具有GELU激活的深度可分离卷积来建模局部空间信息(设置核大小为7,作为平衡效率和较大感受野之间的折衷),最后使用线性投影进行通道间的信息交流。值得注意的是,在整个上下文建模分支中,通道数量保持不变。简而言之,上下文建模分支可以表示为:

  这种设计比VANFocalNet中的上下文建模要简单得多,通过一个大核的深度可分离卷积抛弃了等效的多个深度可分离卷积。这可能会在一定程度上牺牲性能以换取效率,但消融研究表明,上下文分支中的每个操作都是必不可少的。

Network Architecture

6ce846a45d2e390a12c51efc2ab74546.png

EfficientMod采用了4个阶段的分层架构,每个阶段由一系列带有残差连接的EfficientMod模块组成。为了简化起见,使用重叠的图像块嵌入(通过卷积层实现下采样)分别将特征减小4倍、2倍、2倍和2倍。对于每个模块,使用层归一化来对输入特征进行归一化,然后将归一化的特征输入EfficientMod模块。采用随机深度和层缩放来改善模型的鲁棒性。

  需要注意的是,EfficientMod模块与自注意机制是正交的,将EfficientMod模块与注意力模块相结合即可得到一种新的混合设计。混合结构将原始注意力模块引入到特征尺寸相对较小的最后两个阶段,根据纯卷积型EfficientMod对应模块的参数进行宽度和深度修改,保证进行公平比较。一共设计三个规模的混合结构,参数范从4M13M,分别为EfficientMod-xxsEfficientMod-xsEfficientMod-s

Computational Complexity analysis

  给定输入特征,EfficientMod模块的总参数数量为,计算复杂度为,其中为卷积核大小,为中的扩张比率。为了简化,忽略了可学习层中的激活函数和偏置项。与注意力机制相比,EfficientMod模块的复杂度与输入分辨率呈线性关系。与MBConv相比,EfficientMod模块将深度可分离卷积的复杂度减少了倍(MBConv有升维操作),这对于有效性至关重要。

d52e53e467ca9e407d16687917b2506f.png

  除了理论计算复杂度外,论文提供了一些实际指南:

  1. 通过将更多参数移至特征分辨率较小的后期阶段来减少FLOPs。这样做的原因在于EfficientModFLOPs基本上等于输入分辨率乘以参数数量。遵循这一指导方针,可以在后期阶段添加更多的模块或者大幅增加宽度。需要注意的是,这一指南并不仅适用于我们的EfficientMod,也可以应用于所有的全连接和卷积层。

  2. 只在最后两个阶段引入注意力模块,考虑到自注意力的计算复杂度,这是许多研究中的一种常见做法。

  3. 使用Repeat操作来匹配通道数(两个分支的输出特征),以节省CPU时间并仅需少量GPU开销。EfficientFormer观察到,对于许多模型来说,Reshape操作通常是瓶颈。ReshapeCPU上运行缓慢,但在GPU上友好。与此同时,Repeat操作在CPU上运行迅速,但在GPU上耗时。如图2所示(这里应该是图标反了),选择Repeat操作来获得最佳的GPU-CPU延迟折衷。(这一点有点疑问,这里使用Repeat是为了匹配少了的维度数,Reshape应该达不到这个效果。私信了作者,这里的Reshape实际为torch.broadcast_to函数)

Relation to Other Models

  • MobileNetV2

  通过引入Mobile Inverted Bottleneck(简称MBConv)模块,MobileNetV2开启了高效网络领域的新时代。与顺序排列全连接层的MBConv模块相比,EfficientMod模块将深度可分离卷积层分离出来,并通过逐元素乘法将其插入到两层全连接网络的中间。由于深度可分离卷积的通道数量减少,EfficientMod是一种更高效的操作,并且在性能上取得了更好的表现(由于调制操作)。

  • SENet

SENet通过提出通道注意力机制向ConvNets引入了动态特性,SE块可以表示为。最近许多研究将其纳入,从而在理论上保持低复杂度的同时实现更好的准确性。然而,由于SE块中的零碎操作多,实际会显著降低GPU上的推理延迟。相反,EfficientMod模块通过连贯地进行通道注意力,其中自适应地调整了的通道权重。

Experiments


  对EfficientMod在四个任务上进行验证:在ImageNet-1K上进行图像分类, 在MS COCO上进行目标检测和实例分割,在ADE20K上进行语义分割。在PyTorch中实现了所有网络,并将其转换为ONNX模型在两种不同的硬件上进行测试:

  • GPU:选择P100 GPU进行延迟评估,因为它可以模拟近年来大多数设备的计算能力。其他GPU可能会产生不同的基准结果,但我们观察到趋势是类似的。

  • CPU:一些模型在不同类型的硬件上可能会产生不可预测的延迟(主要是由内存访问和零碎操作引起的),在Intel(R) Xeon(R) CPU E5-2680上的所有模型的测得延迟以进行全面比较。

  对于延迟基准测试,将批处理大小分别设置为1,以模拟真实世界的应用。为了抵消方差,对每个模型重复进行4000次运行,并报告平均推理时间。遵循常见的做法,使用四个线程同时测试。

Image Classification on ImageNet-1K

93f227df93a98054d8d00f02daf5fb3f.png

EfficientMod在不同硬件上的分类精度和推理延迟方面表现出色。例如,EfficientMod-sGPU上比EdgeViT表现相同,但运行速度快了15毫秒(约快73%),在CPU上快了11毫秒(约快32%)。此外,参数和计算复杂度也更少。EfficientMod-sGPU上也比EfficientFormerV2-S20.6提升,运行速度快了1.8毫秒(约快25%)。需要注意的是,一些高效设计(例如MobileNetV2FasterNet)注重低延迟,而其他模型则注重性能(例如MobileViTv2EdgeViT),而EfficientModGPUCPU上运行速度快且提供了最先进的性能。

149151a79f389340cc59bf355bace13a.png

  为了更好地了解EfficientMod的改进,我们以EfficientMod-s为例,概述了每个修改的具体改进。从纯卷积基础版本到混合模型,都显示在了表2中。即使EfficientMod的纯卷积基础版本已经以80.5%的显著结果,明显超过相关的基于卷积的网络。通过调整为混合架构,还可以进一步将性能提升至81.0%。

440a04ed2003f5c27004087296f854b5.png

  同时,一些方法采用了强大的训练策略,比如MobileOne中的重新参数化和EfficientFormerV2中的蒸馏。经过蒸馏训练,可以将EfficientMod-s的精度从81.0%提升到81.9%,如表3所示。

Ablation Studies

  • Compare to other Modulation models
d191d31dcf0a80d4a7210a65b785b1ca.png

  将EfficientMod-xxs与具有相似参数数量的FocalNetVAN-B0进行比较。为了公平比较,通过减少通道或块数量的方式定制了FocalNet_Tiny_lrf。一共测试了三种变体,选择了性能最好的一个并将其称为FocalNet@4M。由于Conv2Former的代码尚未完全发布,在比较中没有考虑它。从表4可以看出,EfficientMod在精度和延迟方面均优于其他调制方法。

  • Ablation of each component
a38775df71f74e67430ffe0ef3aabd95.png

  在没有引入注意力和知识蒸馏的卷积EfficientMod-s上进行实验,检验每个组件所带来的贡献。表5显示了在上下文建模分支中消除每个组件的结果。显然,所有这些组件对最终的结果至关重要,引入所有组件后获得了80.5%top-1准确率。同时,还进行了一个实验来验证逐元素相乘的有效性,用求和来替代(相同的计算和相同的延迟)融合两个分支的特征。如预期一样,准确率下降了1%。显著的性能下降揭示了调制操作的有效性,特别是在高效网络中。

  • Connection to MBConv blocks
e7fd435ec7202179c1f1a2fad561601c.png

  为了验证EfficientMod块的优越性,与具有各向同性和分层结构的基础MBConv进行了比较。在几乎相同数量的参数和FLOPs的情况下,表6中的结果表明,EfficientModGPUCPU上均比MBConv快得多。最有可能的解释EfficientMod的深度可分离卷积比MBConv的要轻得多(分别是和的通道数,其中设置为6)。除了更快的推理速度,EfficientMod始终比MBConv块提供了更优越的实证结果。

  • Context Visualization
1e511ec76c36518a477c365a56cc67a3.png

  继承自调制机制,EfficientMod块能够区分有信息量的上下文。在与FocalNet相似的基础上,在EfficientMod-Conv-s中可视化了上下文层的推理输出(沿通道维度计算均值),如图4所示。显然,EfficientMod始终捕捉到有信息量的对象,而背景受到了约束,这表明了调制机制在高效网络中的有效性。

Object Detection and Instance Segmentation on MS COCO

d3f5369b76dbdf2acb99f83b0225ef72.png

  为验证EfficientMod在下游任务中的性能,在MS COCO数据集上进行了目标检测和实例分割的实验。将EfficientMod-s应用到常用的Mask RCNN检测器上进行验证。遵循以往研究的实现,使用调度器,即12epochs来训练模型。将卷积型和混合型EfficientMod-s与其他方法进行比较。如表7所示,EfficientMod始终优于具有相似参数的其他方法。在没有自注意力的情况下,EfficientMod在检测任务上比PoolFormer高出4.2mAP,在实例分割任务上高出3.6mAP。当引入注意力并与混合模型进行比较时,EfficientMod在两个任务上仍然优于其他方法。

Semantic Segmentation on ADE20K

  在ADE20K数据集上进行语义分割任务的实验。考虑简单高效的设计,选择Semantic FPN作为分割模型。遵循之前的研究,在8A100 GPU上进行了40,000次迭代训练,数据批次为32。使用AdamW优化器对模型进行训练,使用余弦退火调度器从初始值2e-4衰减学习率。

  表7中的结果表明,EfficientMod在性能上明显优于其他方法。在没有使用注意力的情况下,卷积型EfficientMod-smIoU已经比PoolFormer高出6.3个百分点。此外,纯卷积型EfficientMod甚至获得了比使用注意力方法更好的结果。在这方面,卷积型EfficientMod-s的性能比之前的SOTA高效方法EfficientFormerV2提升了1.1mIoU。当引入Transformer块以获得混合设计时,使用相同数量的参数甚至更少的FLOPs也能将性能进一步提升至46.0mIoU。混合型EfficientMod-s的性能显著优于其他混合网络,分别比PvTv2EfficientFormerV2高出3.53.6mIoU。可以得出两个结论:

  1. EfficientMod的设计取得了重大进步,证明了其价值和有效性。

  2. 大的感知域对于分割等高分辨率输入任务尤为有益,而基本的注意力块(实现全局范围)可以成为高效网络的现成模块。

何恺明在MIT授课的课件PPT下载

 
 

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

ECCV 2024 论文和代码下载

在CVer公众号后台回复:ECCV2024,即可下载ECCV 2024论文和代码开源的论文合集

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集

Mamba、多模态和扩散模型交流群成立

 
 
扫描下方二维码,或者添加微信:CVer5555,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer5555,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!

▲扫码加入星球学习
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请赞和在看
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值