CV——dy83 接昨天的论文中DAM模块:压缩-激励的宽残差网络在图像分类中的应用

文章介绍了SE-WRN(Squeeze-and-ExcitationWiderResidualNetworks),这是一种通过增强重要通道和抑制不重要通道来提升图像分类性能的技术。SE-blocks通过全局平均池化处理通道信息,而rSE-blocks则解决了信息丢失的问题。在CIFAR数据集上的实验显示,这种方法能有效提高分类准确率,同时仅轻微增加模型复杂度。
摘要由CSDN通过智能技术生成

SQUEEZE-AND-EXCITATION WIDE RESIDUAL NETWORKS IN IMAGE CLASSIFICATION

image-20230305103420138

在昨天的论文中,DAM模块中右侧分支就是基于本文所提出的SE-block,今天来了解一下这个模块。

1. INTRODUCTION

宽残差网络(WRNs:Wide residual networks)表明,与增加残差网络深度相比,拓宽残差块(如果处理得当)可以更有效地提高残差网络的性能。

SE-WRNs可以增强信息通道并抑制不太有用的通道,SE-WRNs块是计算轻量级的,只略微增加模型复杂度和计算量。

SE-blocks中的全局平均池化会导致信息的丢失,因此我们提出了一个r(残差)SE-blocks块,将在后面的章节中介绍,我们的rSE-blocks在计算上也是轻量级的。

综上所述,我们的工作贡献如下

(1 )我们提出了SE-WRNs。与WRNs仅仅增加通道数量不同,SE-WRNs增加了有效通道。为了避免过拟合,提出了一种带有dropout的SE-block块。

(2) 然后,我们提出了利用通道间关系提高图像分类性能的SE-WRNs-GVP(全局平均池化)算法。

(3) 为了避免SE-block中的信息丢失,提出了一种残差SE-block。

2. PROPOSED METHODS

2.1 总体框架

WRN已经证明基本残差结构的3 × 3卷积层中的每一层都是重要的,因此我们采用在WRN中的卷积类型。WRN-n-k表示具有卷积层总数n和加宽因子k的残差网络。其结构如表1所示。

image-20230305105634968

GVP:全局平均池化 🎃

2.2 通道的重要性

SE-WRN可以通过简单地堆叠一组SE构造块来生成。这些特征首先通过一个挤压操作(全局平均池化),该操作聚集空间维度H × W上的特征图以产生一个通道描述符。统计量z ∈ RC通过将U收缩到空间维度H ×W来生成,其中z的第c个计算公式为:image-20230305110002134

该描述符嵌入了信道特征响应的全局分布,使得来自网络的全局感受域的信息能够被其较低层利用。

随后是激发操作,其中通过基于通道依赖性的自门控机制针对每个通道学习的样本特异性激活控制每个通道的激发。image-20230305110051688

块的最终输出是通过用激活重新缩放变换输出U来获得的:image-20230305110225541

其中X = [x1,x2,…,xc]和Fscale(uc,sc)是指特征映射Uc ∈ RH×C和尺度sc之间的通道乘法。变换输出U可以解释为局部描述符的集合,所述局部描述符的统计对于整个图像是有表现力的。SC不能将每个信道的重要性表示为SE块中的全局平均池,因此我们提出了残差SE-blok。未通过SE块的特征被加到具有权重的特征上,如公式(4)所示。然后将融合特征图馈入后续层。image-20230305110512930

image-20230305110558364

图1显示了SE阻断和rSE阻断之间的差异。缩减比R是一个重要的超参数,它允许我们改变模型中SE块的容量和计算成本。

3. EXPERIMENTS

3.1 Datasets

我们选择了著名的CIFAR10和CIFAR100数据集进行实验。CIFAR10和CIFAR100数据集由10和100类绘制的32 × 32彩色图像组成,这些图像分为50,000张训练图像和10,000张测试图像。对于数据增强,我们做水平翻转,从图像中随机选取作物,每边填充4个像素,用原始图像的反射填充缺失的像素。

3.2 训练和测试的设置

所有的网络使用随机梯度下降(SGD)训练。

3.3 分类结果及分析

随着通道的有效利用,分类性能逐渐提高。表2显示了结果。

image-20230305105040403

SE-block阻断增强了有效通道的作用,抑制了非有效通道的作用。然后利用全局协方差池来表征信道之间的相关性,从而有效地利用信道信息。

image-20230305105117443

我们的网络只略微增加了模型的复杂性和计算负担。结果如表4所示。

image-20230305105145891

图二。在cifar数据集上的结果。

4. CONCLUSION

SeNets的目的是通过明确地建模其卷积特征的信道之间的相互依赖关系来提高网络的表示能力。全局协方差池描述了特征通道之间的相关性。

本文提出了利用信道信息的SE-WRNs-GVP。为了避免SE-blocks造成的信息丢失,提出了一种rSE-blocks。我们的rSE-WRN-26-10-GVP对CIFAR10的错误率为3.79%,对CIFAR100的错误率为20.44%,低于WRN。在加入全局协方差池时,学习速率衰减和带有dropout的SE-blocks对解决过拟合问题至关重要。信道信息的有效利用将提高分类的性能。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值