Attentional Feature Fusion

Attentional Feature Fusion


Abstract

特征融合是指来自不同层次或分支的特征的组合,是现代网络架构中无所不在的组成部分。它通常通过简单的操作来实现,如求和或连接,但这可能不是最好的选择。在这项工作中,我们提出了一个统一而通用的方案,即注意特征融合,它适用于大多数常见的场景,包括由短、长跳跃连接引起的特征融合以及在初始层内的特征融合。为了更好地融合不一致语义和尺度的特征,我们提出了一个多尺度通道注意模块,解决了融合不同尺度给出的特征时出现的问题。我们还证明了特征映射的初始集成可以成为一个瓶颈,这个问题可以通过添加另一个层次的注意力来缓解,我们称之为迭代注意特征融合。由于具有更少的层或参数,我们的模型在CIFAR-100和ImageNet数据集上都优于最先进的网络,这表明更复杂的特征融合注意机制具有巨大的潜力,可以持续产生更好的结果

1.引言

卷积神经网络(CNNs)通过进行更深的、更宽的、增加基数和动态细化特征,这与许多计算机视觉任务的进步相对应。在特征金字塔网络(FPN)[23]和U-Net[30]中,通过长跳连接将低级特征和高级特征融合,获得高分辨率和语义强的特征,这对语义分割和目标检测至关重要。然而,尽管它在现代网络中很流行,但大多数关于特征融合的工作都集中于构建复杂的路径,以组合在不同的内核、组或层中的特征。特征融合方法很少被解决,通常通过简单的操作实现,如加法或连接,只提供固定的线性聚合,完全不知道这种组合是否适合特定的对象。在残差网络(ResNet)及其后续的工作中,将身份映射特征和残差学习特征融合作为输出,使得非常深的网络的训练成为可能。在特征金字塔网络(FPN)和U-Net中,通过长跳连接将低级特征和高级特征融合,获得高分辨率和语义强的特征,这对语义分割和目标检测至关重要。然而,尽管它在现代网络中很流行,但大多数关于特征融合的工作都集中于构建复杂的路径,以组合在不同的内核、组或层中的特征。特征融合方法很少被解决,通常通过简单的操作实现,如加法或连接,这仅仅提供了一个固定的线性聚合,完全不知道这种组合是否适合特定的对象。
近年来,选择性核网络SKNet和ResNeSt被提出基于全局信道注意机制,对同一层中多个核或组的特征进行动态加权平均。虽然这种基于注意力的方法提出了特征融合的非线性方法,但它们仍存在以下缺点:

  • 有限的场景:SKNet和ResNeSt只关注同一层的软特征选择,而跳过连接中的跨层融合没有被修饰,使得他们的方案相当启发式。尽管有不同的场景,但各种特性融合实现都面临着相同的挑战,从本质上讲,也就是说,如何集成不同规模的特性以获得更好的性能。一个能够克服语义不一致并有效整合不同规模的特征结构的模块应该能够保持一致。在各种网络场景下,提高了融合特性的质量。然而,到目前为止,目前还缺乏一种能够以一致的方式统一不同的特征融合场景的通用方法。
  • 简单的初始集成:为了将接收到的特征输入注意模块,SKNet以一种非自愿但不可避免的方式引入了另一个特征融合阶段,我们称之为初始集成,并通过加法来实现。因此,除了注意模块的设计外,初始集成方法作为其输入,对融合权值的质量也有很大的影响。考虑到这些特征在规模和语义层面上可能有很大的不一致,一个忽略这个问题的不简单的初始集成策略可能是一个瓶颈。
  • 偏置上下文聚合规模:SKNet和ResNeSt中的融合权值是通过全局通道注意机制生成的,这是更全局分布的信息的首选。然而,图像中的物体在大小上可能会有非常大的变化。许多研究都强调了在设计CNN时出现的这个问题,即预测器的接受域应该与对象尺度范围相匹配。因此,仅仅在全球范围内聚合上下文信息是过于有偏见的,并削弱了小物体的特征。这就产生了一个问题,即网络是否能够以一种上下文规模感知的方式动态地和自适应地融合接收到的特性。

基于上述观察结果,我们提出了注意特征融合(AFF)模块,试图回答各种特征融合场景的统一方法的问题,并解决上下文聚合和初始集成的问题。AFF框架将基于注意力的特征融合从同一层场景推广到跨层场景,包括短跳过连接和长跳过连接,甚至是AFF本身内部的初始集成。它提供了一种通用和一致的方法来提高各种网络的性能,如控制网、ResNet、ResNeXt和FPN,通过简单地用提议的AFF模块替换现有的特征融合。此外,AFF框架支持通过将接收到的特征与另一个AFF模块进行迭代积分,逐步细化初始积分,即融合权重发生器的输入,我们称为迭代注意特征融合(iAFF)。

为了缓解尺度变化和小物体所带来的问题,我们主张注意模块也应该为不同尺度的对象聚合来自不同接受域的上下文信息。更具体地说,我们提出了多尺度通道注意模块(MS-CAM),这是一种简单而有效的方案来纠正不同尺度上的特征不一致的注意特征融合。我们的关键观察是,尺度不是空间注意独有的问题,通道注意也可以通过改变空间池的大小而具有全局以外的尺度。MS-CAM通过沿通道维度聚合多尺度上下文信息,可以同时强调更全局分布的大型对象,并突出分布更局部的小型对象,促进网络在极端尺度变化下识别和检测的对象。

2.相关工作

2.1.多尺度注意机制

物体的尺度变化是计算机视觉中的关键挑战之一。为了解决这个问题,一种直观的方法是利用多尺度图像金字塔,即在多个尺度上识别对象,并使用非最大抑制将预测相结合。另一项工作是利用CNN固有的多尺度层次特征金字塔来近似图像金字塔,将多层的特征融合,获得高分辨率的语义特征。

深度学习中的注意机制模仿了人类的视觉注意机制,最初是在全球范围内发展起来的。例如,自注意中的矩阵乘法绘制了句子中的每个单词或图像中的每个像素的全局依赖性。挤压和激发网络(SENet)将全局空间信息压缩到一个信道描述符中,以捕获信道级的依赖性。最近,研究人员开始考虑注意机制的规模问题。与上述处理CNN中尺度变化的方法类似,多尺度注意机制是通过将多尺度特征输入一个注意模块或在一个注意模块内结合多个尺度的特征上下文来实现的。在第一种类型中,将多个尺度的特征或其连接的结果输入注意模块,生成多尺度的注意图,而注意模块内的特征上下文聚合尺度保持单一。第二种类型,也被称为多尺度空间注意,它通过不同大小的卷积核或从注意模块内的金字塔来聚合特征上下文。

提出MS-CAM遵循ParseNet结合本地和全球特征网络和空间注意力的想法与聚合多尺度特征上下文在注意模块,但至少在两个重要方面不同:1)MS-CAM提出规模问题,通过pointwise卷积而不是不同大小的内核。2)MS-CAM不是在主干网络中,而是在通道-2模块中聚合局部和全局特征上下文。据我们所知,多尺度渠道的关注以前从未被讨论过。

2.2.在深度学习中跳过连接

跳过连接一直是现代卷积网络中的一个重要组成部分。短时间的跳过连接,即添加在残差块内的身份映射快捷方式,为在反向传播期间不中断的梯度流动提供了另一种路径。长跳过连接通过连接来自较低级的精细细节特征和粗分辨率的高级语义特征,帮助网络获得高分辨率的语义特征。尽管被用于组合不同路径[9]中的特征,但连接特征的融合通常是通过添加或连接来实现的,它以固定的权重分配特征,而不管内容的方差如何。近年来,一些基于注意的方法,如全局注意上采样(Gau)和跳过注意(SA),已经被提出使用高级特征作为指导,来调节长跳过连接中的低水平特征。然而,被调制特征的融合权值仍然是固定的。

据我们所知,是Highway网络首次在短跳过连接中引入了一种选择机制。在某种程度上,本文提出的注意力跳过连接可以视为其后续,但不同的三点:1)Highway网络采用一个简单的完全连接层,只能生成一个标量融合权重,而我们提出MSCAM生成融合权重相同大小的特征地图,使动态软选择元素的方式。2)Highway网络只使用一个输入特性来生成权重,而我们的AFF模块都知道这两个特性。3)指出了初始特征集成的重要性,并提出了iAFF模块作为一种解决方案。

3.多尺度通道注意

3.1在SENet中恢复渠道关注

给定一个中间特性 X ∈ R C × H × W X∈R^{C×H×W} XRC×H×W与C通道和大小H×W的特征地图,SENet中的通道注意权重 W ∈ R C W∈R^C WRC可以计算为 W = σ ( g ( X ) ) = σ ( β ( W 2 δ ( β ( W 1 ( g ( X ) ) ) ) ) ) W=σ(g(X))=σ(\beta(W_2\delta(\beta(W_1(g(X)))))) W=σ(g(X))=σ(β(W2δ(β(W1(g(X))))))
其中 g ( X ) ∈ R C g(X)∈R^C g(X)RC表示全局特征上下文,g(X)是全局平均池(GAP)。 δ \delta δ表示校正后的线性单位(ReLU),B表示批处理归一化(BN)。σ是s型函数。这是通过具有两个完全连接(FC)层的瓶颈来实现的,其中 W 1 ∈ R C / r × C W_1∈R^{C/r×C} W1RC/r×C是一个降维层,而 W 2 ∈ R C × C / r W_2∈R^{C×C/r} W2RC×C/r是一个增维层。r为通道还原比。

我们可以看到,通道注意将每个大小为H×W的特征图压缩成一个标量。这个极端粗糙的描述符更倾向于强调全局分布的大型对象,并可能消除一个小对象中出现的大部分图像信号。然而,检测非常小的对象是最先进的网络的关键性能瓶颈。例如,COCO的差异性在很大程度上是由于大多数对象实例都小于图像面积的1%。因此,对全局通道的关注可能不是最好的选择。多尺度特征上下文应该聚合在注意模块内,以缓解由尺度变化和小对象实例引起的问题。

3.2聚合本地和全局上下文

在这部分中,我们详细描述了所提出的多尺度通道注意模块(MS-CAM)。其关键思想是,通过改变空间池化的大小,可以在多个尺度上实现通道注意。为了尽可能保持它的轻量级,我们只是将本地上下文添加到注意模块内的全局上下文中。我们选择PWConv作为本地信道上下文聚合器,它只利用每个空间位置的点向信道交互作用。为了保存参数,通过一个瓶颈结构对本地通道上下文 L ( X ) ∈ R C × H × W L(X)∈R^{C×H×W} L(X)RC×H×W进行计算,如下:
L ( X ) = β ( P W C o n v 2 ( δ ( β ( P W C o n v 1 ( X ) ) ) ) ) L(X) = \beta (PWConv_2 (\delta (\beta (PWConv_1(X))))) L(X)=β(PWConv2(δ(β(PWConv1(X)))))
P W C o n v 1 PWConv_1 PWConv1 P W C o n v 2 PWConv_2 PWConv2的内核大小分别为 C / r × C × 1 × 1 C/r×C×1×1 C/r×C×1×1 P W C o n v 2 PWConv_2 PWConv2分别为 C × C / r × 1 × 1 C×C/r×1×1 C×C/r×1×1。值得注意的是,L(X)与输入特征具有相同的形状,它可以保留并突出显示低级特征中的细微细节。给定全局信道上下文g(X)和局部信道上下文L(X),通过MS-CAM得到的细化特征 X ′ ∈ R C × H × W X^{'}∈R^{C×H×W} XRC×H×W如下:
X ′ = X ⊗ M ( X ) = X ⊗ σ ( L ( X ) ⊕ g ( X ) ) X^{'} = X ⊗ M(X) = X ⊗ σ (L(X) ⊕ g(X)) X=XM(X)=Xσ(L(X)g(X))
式中, M ( X ) ∈ R C × H × W M(X)∈R^{C×H×W} M(X)RC×H×W为MS-CAM产生的注意权重。⊕表示广播加法,⊗表示元素级乘法。

4.注意特征融合

4.1.特征融合场景的统一性

给定两个特征图 X , Y ∈ R C × H × W X,Y∈R^{C×H×W} XYRC×H×W,默认情况下,我们假设Y是具有更大接受域的特征图。更具体地说,

  • 同层场景:X是3×3内核的输出,Y是控制网中5×5内核的输出;
  • 短跳过连接场景:X是身份映射,Y是在ResNet块中学习到的残差;
  • 长跳过连接场景:X是低级特征映射,Y是特征金字塔中的高级语义特征映射。
    在这里插入图片描述

基于多尺度信道注意模块M,注意特征融合(AFF)可以表示为
Z = M ( X ] Y ) ⊗ X + ( 1 − M ( X ] Y ) ) ⊗ Y , ( 4 ) Z = M(X ] Y) ⊗ X + (1 − M(X ] Y)) ⊗ Y, (4) Z=M(X]Y)X+(1M(X]Y))Y,(4)
其中 Z ∈ R C × H × W Z∈R^{C×H×W} ZRC×H×W为融合特征,]表示初始特征积分。在本小节中,为了简单起见,我们选择元素级求和作为初始积分。AFF如图2(a)所示,其中虚线表示1−M(X]Y)。需要注意的是,融合权值M(X]Y)由0和1之间的实数组成,1−M(X]Y)也是如此,这使得网络能够在X和Y之间进行软选择或加权平均。

从表1中可以进一步看出,除了权重生成模块G的实现外,最先进的融合方案主要在两个关键点上有所不同:(a)是上下文感知水平。像加法和连接这样的线性方法完全是上下文无感知的。特征的细化和调制是非线性的,但只是部分地意识到输入的特征映射。在大多数情况下,它们只利用高级特性映射。完全上下文感知的方法利用这两种输入特征图作为指导,但代价是提高最初的集成问题。(b)细化vs调制vs选择。在软选择方法中,应用于两个特征映射的权值之和被约束为1,而这不是重新细化和调制的情况。
在这里插入图片描述

4.2.迭代注意特征融合

与部分上下文感知的方法不同,完全上下文感知的方法有一个不可避免的问题,即如何最初集成输入特性。作为注意模块的输入,初始整合质量可能会深刻地影响最终的融合权重。由于它仍然是一个特征融合的问题,一个直观的方法是有另一个注意模块来融合输入特征。我们称这种两阶段的方法为迭代注意特征融合(iAFF),如图2(b).所示然后,在等式中的初始积分X]Y可以被重新表述为:
X ] Y = M ( X + Y ) ⊗ X + ( 1 − M ( X + Y ) ) ⊗ Y X ] Y = M(X + Y) ⊗ X + (1 − M(X + Y)) ⊗ Y X]Y=M(X+Y)X+(1M(X+Y))Y

4.3.示例:InceptionNet、ResNet和FPN

为了验证所提出的AFF/iAFF作为一个统一和通用的方案,我们选择ResNet、FPN和InceptionNet作为最常见的场景:短跳和长跳连接以及同一层融合。通过替换原始的添加或连接,可以直接将AFF/iAFF应用到现有的网络中。具体来说,我们替换了InceptionNet模块中的连接以及ResNet块(ResBlock)和FPN中的添加,以获得注意网络,我们分别称之为AFF-初始模块、AFF-ResBlock和AFF-FPN。这种替换和我们提出的架构的方案如图3所示。

  • 3
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值