Relation-Aware Global Attention for Person Re-identification阅读记录

1)动机:在行人重识别研究中,注意力机制可以强化特征判别性,抑制无关特征。以前的方法通常使用局部卷积来学习注意力,忽略了从全局结构模式中挖掘知识。本篇论文中作者为了使网络更好的进行attention学习,提出了Relation-Aware Global Attention (RGA) module

2)解决的问题:

1> 使用卷积神经网络,对每一个特征x,学习一个attention值,因此只能学习到局部特征,而忽视了全局特征。

2> 使用全连接网络,学习到的attention值来自于所有特征向量的连接,虽然学习到了全局特征,但参数量过大,计算量太大。

3>通过考虑全局的相关信息学习attention值,即对每一个特征向量,全局的关联信息用一个关系对ri = [ri,1, · · · , ri,5, r1,i, · · · , r5,i]表示,其中ri,1表示第i个特征节点和第一个特征节点的关系,以此类推。用一个符号ri&j = [ri,j , rj,i]表示,所有的ri&j组合可以得到x1一个关联特征,组合在一起得到一个特征向量r1,再和原始特征向量x1拼接,得到一个relation-aware feature y1, y1 = [x1, r1 ]作为提取attention的特征向量。因此可以看出,基于特征x1得到的attentiona1既包含了局部特征x1,又包含了全局所有特征之间的关系。

3)贡献

1>提出通过全局的特征之间的关系来全局地学习每个特征节点的注意力。由于全局范围关系具有有价值的结构化(类聚类)信息,我们提出从关系中挖掘语义,通过学习函数来引起注意。具体来说,对于一个特征节点,我们通过将其与所有特征节点的成对关系作为向量叠加,建立一个紧凑的表示,并从中挖掘模式进行注意学习。

2>设计了一个关系感知全局关注(RGA)模块,该模块简洁地表示了全局范围关系,并通过两个卷积层来获取基于全局范围关系的关注。我们将这种设计应用于空间(RGA-S)和通道维度(RGA-C),并证明了其对行人重新识别的有效性。

上图中,a叫做RGA-S,用来提取空间attention,b叫做RGA-C,用来提取通道attention。

a>对于一个输入的特征向量[C,H,W],在上图中,可表示为[C,3,3]。从节点i到节点j的成对关系(即亲和力)ri,j可以定义为嵌入空间中的点积亲和力:

其中θs和φs是由1×1空间卷积层实现的两个嵌入函数,然后进行批归一化(BN)和ReLU激活,类似地,可以得到节点j到节点i的亲和力为rj,i=fs(xj,xi)。用对(ri,j,rj,i)来描述xi和Xj之间的双向关系;用一个亲和矩阵Rs∈RN×N来表示所有结点之间的成对关系,最后得到一个[9,9]矩阵,代表每个向量之间的关系。

再将得到的[9,9]矩阵经过reshape操作分别得到两个矩阵[9,3,3],[9,3,3],黄色块RS(:,6)代表每个向量和第六个特征点之间的关系,紫色块RS(6,:)代表第6个特征和其他所有特征之间的关系。

为了学习第i个特征节点的注意力,除了两两关系项ri外,我们还包括特征本身xi,以挖掘与该特征相关的全局范围结构信息和局部原始信息。考虑到这两种信息不在同一特征域中,因此分别对它们进行了嵌入,然后连接获得要获得空间关系感知特性;

其中,φs和φs分别表示特征本身和全局关系的嵌入函数。它们都是通过一个空间1×1卷积层,然后是BN和ReLU激活来实现的;poolc(·)表示沿通道维度的全局平均池操作,以进一步将维度降低到1。

全局范围关系包含了丰富的结构信息(如具有语义的特征空间中的类聚类状态),提出从全局范围关系中挖掘有价值的知识,通过一个可学习的模型来推断注意力。通过如下建模函数获得该特征/节点的空间关注值ai:

b>与a相似,只不过通道做卷积和reshape操作,获得每个通道的权重值,即判断哪一个特征图重要。 

 本文参考:https://blog.csdn.net/baidu_41622980/article/details/107849683

以上个人拙见,如有错误,欢迎指正!一起学习呀!!!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值