这篇论文和
2020
年CVPR
的SCNet
并不是同一篇论文
论文地址:CVPR_2023_paper.pdf
代码地址:https://github.com/cheng-haha/ScConv
卷积神经网络(CNNs)在各种计算机视觉任务中取得了显著的性能,但这是以巨大的计算资源为代价的,部分原因是卷积层提取了冗余特征。最近的研究要么压缩已训练好的大规模模型,要么探索设计精良的轻量级模型。在本文中,我们试图利用特征中的空间和通道冗余来进行CNN压缩,并提出了一种高效的卷积模块,称为SCConv(空间和通道重构卷积),以减少冗余计算并促进代表性特征学习。所提出的SCConv包含两个单元:空间重构单元(SRU)和通道重构单元(CRU)。SRU采用分离与重构的方法抑制空间冗余,而CRU则采用分割-转换-融合策略减少通道冗余。此外,SCConv是一个即插即用的架构单元,可以直接替换各种卷积神经网络中的标准卷积。实验结果显示,嵌入了SCConv的模型通过减少冗余特征、降低复杂性和计算成本,能够实现更好的性能表现。。