ECCV 2024 | CNN涨点神器!WTConv:大感受野的小波卷积

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Mamba/多模态/扩散】交流群

添加微信号:CVer111,小助手会拉你进群!

扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!

590602af69b676e1cfeec96544639f74.png

来源:晓飞的算法工程笔记

近年来,人们尝试增加卷积神经网络(CNN)的卷积核大小,以模拟视觉TransformerViTs)自注意力模块的全局感受野。然而,这种方法很快就遇到了上限,并在实现全局感受野之前就达到了饱和。论文证明通过利用小波变换(WT),实际上可以获得非常大的感受野,而不会出现过参数化的情况。例如,对于一个  的感受野,所提出方法中的可训练参数数量仅以  进行对数增长。所提出的层命名为WTConv,可以作为现有架构中的替换,产生有效的多频响应,且能够优雅地随着感受野大小的变化而扩展。论文在ConvNeXtMobileNetV2架构中展示了WTConv层在图像分类中的有效性,以及作为下游任务的主干网络,并且展示其具有其它属性,如对图像损坏的鲁棒性以及对形状相较于纹理的增强响应。

论文: Wavelet Convolutions for Large Receptive Fields

010444b6bd34493879a1a4cbfd62deef.png
  • 论文地址:https://arxiv.org/abs/2407.05848v2

  • 论文代码:https://github.com/BGU-CS-VIL/WTConv

Introduction


在过去十年中,卷积神经网络(CNN)在许多计算机视觉领域占主导地位。尽管如此,随着视觉TransformerViTs)的出现(这是一种用于自然语言处理的Transformer架构的适应),CNN面临着激烈的竞争。具体而言,ViTs目前被认为相较于CNN具有优势的原因,主要归功于其多头自注意力层。该层促进了特征的全局混合,而卷积在结构上仅局限于特征的局部混合。因此,最近几项工作尝试弥补CNNViTs之间的性能差距。有研究重构了ResNet架构和其训练过程,以跟上Swin Transformer。“增强”的一个重要改进是增加卷积核的大小。然而,实证研究表明,这种方法在  的卷积核大小处就饱和了,这意味着进一步增加卷积核并没有帮助,甚至在某个时候开始出现性能恶化。虽然简单地将大小增加到超过  并没有用,但RepLKNet的研究已经表明,通过更好的构建可以从更大的卷积核中获益。然而,即便如此,卷积核最终仍然会变得过参数化,性能在达到全局感受野之前就会饱和。

RepLKNet分析中,一个引人入胜的特性是,使用更大的卷积核使得卷积神经网络(CNN)对形状的偏向性更强,这意味着它们捕捉图像中低频信息的能力得到了增强。这个发现有些令人惊讶,因为卷积层通常倾向于对输入中的高频部分作出响应。这与注意力头不同,后者已知对低频更加敏感,这在其他研究中得到了证实。

上述讨论引发了一个自然的问题:能否利用信号处理工具有效地增加卷积的感受野,而不至于遭受过参数化的困扰?换句话说,能否使用非常大的滤波器(例如具有全局感受野的滤波器),同时提升性能?论文提出的方法利用了小波变换(WT),这是来自时频分析的一个成熟工具,旨在有效扩大卷积的感受野,并通过级联的方式引导CNN更好地响应低频信息。论文将解决方案基于小波变换(与例如傅里叶变换不同),因为小波变换保留了一定的空间分辨率。这使得小波域中的空间操作(例如卷积)更加具有意义。

88055f1c39df983420cce989f62fabb7.png

更具体地说,论文提出了WTConv,这是一个使用级联小波分解的层,并执行一组小卷积核的卷积,每个卷积专注于输入的不同频率带,并具有越来越大的感受野。这个过程能够在输入中对低频信息给予更多重视,同时仅增加少量可训练参数。实际上,对于一个  的感受野,可训练参数数量只随着  的增长而呈对数增长。而WTConv与常规方法的参数平方增长形成对比,能够获得有效的卷积神经网络(CNN),其有效感受野(ERF)大小前所未有,如图1所示。

WTConv作为深度可分离卷积的直接替代品,可以在任何给定的卷积神经网络(CNN)架构中直接使用,无需额外修改。通过将WTConv嵌入到ConvNeXt中进行图像分类,验证了WTConv的有效性,展示了其在基本视觉任务中的实用性。在此基础上,进一步利用ConvNeXt作为骨干网络,扩展评估到更复杂的应用中:在UperNet中进行语义分割,以及在Cascade Mask R-CNN中进行物体检测。此外,还分析了WTConvCNN提供的额外好处。

论文的贡献总结如下:

  1. 一个新的层WTConv,利用小波变换(WT)有效地增加卷积的感受野。

  2. WTConv被设计为在给定的卷积神经网络(CNN)中作为深度可分离卷积的直接替代。

  3. 广泛的实证评估表明,WTConv在多个关键计算机视觉任务中提升了卷积神经网络(CNN)的结果。

  4. WTConv在卷积神经网络(CNN)的可扩展性、鲁棒性、形状偏向和有效感受野(ERF)方面贡献的分析。

Method


Preliminaries: The Wavelet Transform as Convolutions

在这项工作中,采用Haar小波变换,因为它高效且简单。其他小波基底也可以使用,尽管计算成本会有所增加。

给定一个图像  ,在一个空间维度(宽度或高度)上的一层Haar小波变换由核为  和  的深度卷积组成,之后是一个缩放因子为2的标准下采样操作。要执行2D Haar小波变换,在两个维度上组合该操作,即使用以下四组滤波器进行深度卷积,步距为2:

注意,  是一个低通滤波器,而  是一组高通滤波器。对于每个输入通道,卷积的输出为

输出具有四个通道,每个通道在每个空间维度上的分辨率为  的一半。  是  的低频分量,而  分别是其水平、垂直和对角线的高频分量。

由于公式1中的核形成了一个标准正交基,逆小波变换(IWT)可以通过转置卷积实现:

级联小波分解是通过递归地分解低频分量来实现的。每一层的分解由以下方式给出:

其中  ,而  是当前的层级。这导致较低频率的频率分辨率提高,以及空间分辨率降低。

Convolution in the Wavelet Domain

增加卷积层的核大小会使参数数量呈平方级增加,为了解决这个问题,论文提出以下方法。

5fea6d54cf852a12f5540b9d5d663750.png

首先,使用小波变换(WT)对输入的低频和高频内容进行过滤和下采样。然后,在不同的频率图上执行小核深度卷积,最后使用逆小波变换(IWT)来构建输出。换句话说,过程由以下给出:

其中  是输入张量,  是一个  深度卷积核的权重张量,其输入通道数量是  的四倍。此操作不仅在频率分量之间分离了卷积,还允许较小的卷积核在原始输入的更大区域内操作,即增加了相对于输入的感受野。

533db14a03768c8156453b71fed0eba0.png

采用这种1级组合操作,并通过使用公式4中相同的级联原理进一步增加它。该过程如下所示:

其中  是该层的输入,  表示第  级的所有三个高频图。

为了结合不同频率的输出,利用小波变换(WT)及其逆变换是线性操作的事实,这意味着  。因此,进行以下操作:

这将导致不同级别卷积的求和,其中  是从第  级及之后的聚合输出。这与RepLKNet一致,其中两个不同尺寸卷积的输出被相加作为最终输出。

RepLKNet不同,不能对每个  进行单独归一化,因为这些的单独归一化并不对应于原始域中的归一化。相反,论文发现仅进行通道级缩放以权衡每个频率分量的贡献就足够了。

The Benefits of Using WTConv

在给定的卷积神经网络(CNN)中结合小波卷积(WTConv)有两个主要的技术优势。

  1. 小波变换的每一级都会增加层的感受野大小,同时仅小幅增加可训练参数的数量。也就是说,WT的  级级联频率分解,加上每个级别的固定大小卷积核  ,使得参数的数量在级别数量上呈线性增长(  ),而感受野则呈指数级增长(  )。

  2. 小波卷积(WTConv)层的构建旨在比标准卷积更好地捕捉低频。这是因为对输入的低频进行重复的小波分解能够强调它们并增加层的相应响应。通过对多频率输入使用紧凑的卷积核,WTConv层将额外的参数放置在最需要的地方。

除了在标准基准上取得更好的结果,这些技术优势还转化为网络在以下方面的改进:与大卷积核方法相比的可扩展性、对于损坏和分布变化的鲁棒性,以及对形状的响应比对纹理的响应更强。

Computational Cost

深度卷积在浮点运算(FLOPs)方面的计算成本为:

其中  为输入通道数,  为输入的空间维度,  为卷积核大小,  为每个维度的步幅。例如,考虑一个空间维度为  的单通道输入。使用大小为  的卷积核进行卷积运算会产生  FLOPs,而使用大小为  的卷积核则会产生  FLOPs。考虑WTConv的卷积集,尽管通道数是原始输入的四倍,每个小波域卷积在空间维度上减少了一个因子2FLOP计数为:

其中  是WT层级的数量。继续之前输入大小为  的例子,对一个3WTConv使用大小为  的多频卷积(其感受野为  )会产生  FLOPs。当然,还需要添加WT计算本身的成本。当使用Haar基底时,WT可以以非常高效的方式实现。也就是说,如果使用标准卷积操作的简单实现,WTFLOP计数为:

因为这四个卷积核的大小为  ,在每个空间维度上的步幅为2,并且作用于每个输入通道。同样,类似的分析表明,IWTFLOP计数与WT相同。继续这个例子,3WTIWT的额外成本为  FLOPs,总计为  FLOPs,这仍然在相似感受野的标准深度卷积中有显著的节省。

Results


defdfd27773648fad299d3d350bea195.png fb014656b0bf54588906a4ecbc6f0e66.png 07fad4b7198c491a2b07ba8d679865de.png
 
 

何恺明在MIT授课的课件PPT下载

 
 

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

ECCV 2024 论文和代码下载

在CVer公众号后台回复:ECCV2024,即可下载ECCV 2024论文和代码开源的论文合集

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集

Mamba、多模态和扩散模型交流群成立

 
 
扫描下方二维码,或者添加微信号:CVer111,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer111,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集上万人!

▲扫码加入星球学习
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请赞和在看
### 关于小波变换的GitHub项目和资源 #### PyWavelets库 PyWavelets是一个功能强且易于使用的Python工具包,专门用于一维、二维以及多维度的小波变换操作。此项目的官方迁移通知指出,请访问 [https://github.com/PyWavelets](https://github.com/PyWavelets)[^1] 获取最新版本和支持。 #### WTConv实现 对于希望探索如何利用小波变换增强卷积神经网络的研究人员来说,《Wavelet Convolutions for Large Receptive Fields》这篇论文介绍了一个名为WTConv的新颖卷积层结构[^2]。虽然具体的代码实现可能不在公开的GitHub仓库中,但是可以通过阅读该论文了解其背后的原理和技术细节,并尝试自行编码实现这一创新性的算法。 #### 图像压缩中的5/3小波变换 针对感兴趣于图像处理特别是压缩领域的人士,在MATLAB环境下有关5/3小波变换应用于图像压缩的文章提供了一些有价值的见解[^3]。尽管这不是一个直接关联到GitHub上的开源项目,但对于想要深入研究或开发基于此类技术的应用程序的人来说,这些理论基础是非常重要的参考资料。 为了找到更多关于小波变换的相关GitHub项目,建议使用关键词如 "wavelet transform", "image compression with wavelets" 或者具体提到某种类型的小波(比如Daubechies, Coiflets等)进行搜索。此外还可以关注那些活跃维护并定期更新文档说明及示例代码的高质量存储库。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值