Infrared-Visible Cross-Modal Person Re-Identification with an X Modality——准研究生论文周报

1 标题

  Infrared-Visible Cross-Modal Person Re-Identification with an X Modality 来源:AAAI 2020

2 概述

  本文也是一篇跨模态ReID(cm-ReID),和上周的那篇结合特有特征和共享特征的cm-ReID相比,本文在两个数据集上的表现并不如前者,不过也是提供了一种思路吧。
  本文的思路和做法巧妙而简单,跨模态ReID是个很难的任务,因为模态之间的差异或者说gap较大,为了减小gap,作者引入了一个介于RGB和红外图像之间的 X X X模态,变二模态(IV-ReID)为三模态(XIV-ReID),从而使跨模态匹配变得容易,其直观思想和图像可视化如下图,其中颜色表示某一ID,形状代表模态,同一虚线框中的图片很容易匹配,图(a):跨模态很难因为两种模态明显存在gap;图(b):X模态的加入使得任务变得简单。
img1
img1

3 主要贡献

  • 引入模态 X X X,变infrared-visible cm-ReID为X-infrared-visible cm-ReID,双模态变三模态
  • 模态X来自RGB图像,由自监督的轻量网络生成,计算量小
  • 设计了模态gap约束(modality gap constraint),来引导模态间互相“学习交流”

4 算法及实验

4.1 算法

  • 框架概览
    下图为框架结构,框架主要包含3大块,1)轻量生成器;2)权值共享的特征提取器;3)约束。轻量生成器从可见图像和红外图像汲取信息(不过算法里 X X X模态图好像并未从红外图吸收任何信息),生成 X X X模态的图像,然后三种模态的图像馈入特征提取器,最后,加上两个模态约束cross modality gap (CMG)和modality respective gap (MRG),用以规范化特征表示和分类输出,并学习common space中三种模态的跨模态信息。

framework

  • 问题描述
    cm-ReID数据集 T = { T t r , T t e } T=\{T_{tr},T_{te}\} T={Ttr,Tte} T t r T_{tr} Ttr是包含了 N N N张图像的训练集,标签 Y = { y i } i = 1 N Y=\{y_i\}_{i=1}^N Y={yi}i=1N y i ∈ { 1 , 2 , . . . , C } y_i\in\{1,2,...,C\} yi{1,2,...,C} C C C T t r T_{tr} Ttr的类别数,测试集包含query集和gallery集, T t e = T q u e r y , T g a l l e r y T_{te}={T_{query},T_{gallery}} Tte=Tquery,Tgallery
    V , I , X V,I,X V,I,X表示可见图、红外图和 X X X模态图,用 f f f表示深度特征学习器, g g g表示 X X X模态生成器,即 X = g ( V ) X=g(V) X=g(V)
    测试阶段,通过query图片 I i I_i Ii从gallery集找出近邻可见图像 V j ∗ V_{j^*} Vj,而且通过 X X X模态的辅助进行跨模态搜索, j ∗ j^* j
    j ∗ = a r g   m i n j ( D ( f ( I i ) , f ( V j ) ) + D ( f ( I j ) , f ( X j ) ) )               ( 2 ) j^*=arg\,min_j(D(f(I_i),f(V_j))+D(f(I_j),f(X_j)))\,\,\,\,\,\,\,\,\,\,\,\,\,(2) j=argminj(D(f(Ii),f(Vj))+D(f(Ij),f(Xj)))(2) D D D是欧氏距离

  • X模态
    生成器是一个轻量的非线性网络,不同于GAN,作者提出的生成器计算量很小,不用通过复杂的训练来实现。网络结构很简单,通过 1 × 1   C o n V 1\times 1\,ConV 1×1ConV将三通道RGB图变为单通道图,用ReLU提高非线性表示能力,然后再用 1 × 1   C o n V 1\times 1\,ConV 1×1ConV将单通道变为三通道图,成为类似RGB图的X模态图。

  • 权值共享特征学习器(Weight-sharing Feature Learner)
    三种模态作为输入,通过一个权值共享的特征学习器在一个共同特征空间学习跨模态信息。训练阶段共同优化三种模态, X X X模态辅以降低学习难度;测试阶段,通过上面的公式(2)计算红外-X以及红外-可见模态的相似度。

  • 模态约束(Modality Constraints)
    先前方法利用红外-可见正负样本对来增强特征辨别性(指的是不是三元组?),而本文利用三种模态联合形成模态间约束,用 3 M 3M 3M大小的整齐的batch, 3 M 3M 3M指的是三种模态,则跨模态间隙(cross modality gap,CMG)约束 L C L_C LC表示为: L C = L c r o s s I , X + L c r o s s I , V L_C=L_{cross}^{I,X}+L_{cross}^{I,V} LC=LcrossI,X+LcrossI,V对于红外和 X X X模态之间的约束 L c r o s s I , X L_{cross}^{I,X} LcrossI,X L c r o s s I , X = 1 M ( L I − X + L X − I ) L_{cross}^{I,X}=\frac{1}{M}(L_{I-X}+L_{X-I}) LcrossI,X=M1(LIX+LXI)其中: L I − X = ∑ i = 1 M [ α 1 + m a x    D ( f ( I i ) , f ( X j ) ) − m i n    D ( f ( I i ) , f ( X k ) ) ] + ( j = M + 1 , . . . , 2 M 且 y i = y j ; k = M + 1 , . . . , 2 M 且 y i ≠ y k ) L_{I-X}=\sum_{i=1}^M[\alpha_1+max\,\,D(f(I_i),f(X_j))-min\,\,D(f(I_i),f(X_k))]_+\\(j=M+1,...,2M且y_i=y_j;k=M+1,...,2M且y_i≠y_k) LIX=i=1M[α1+maxD(f(Ii),f(Xj))minD(f(Ii),f(Xk))]+(j=M+1,...,2Myi=yj;k=M+1,...,2Myi=yk) L X − I = ∑ i = M + 1 2 M [ α 1 + m a x    D ( f ( X i ) , f ( I j ) ) − m i n    D ( f ( X i ) , f ( I k ) ) ] + ( j = 1 , . . . , M 且 y i = y j ; k = 1 , . . . , M 且 y i ≠ y k ) L_{X-I}=\sum_{i=M+1}^{2M}[\alpha_1+max\,\,D(f(X_i),f(I_j))-min\,\,D(f(X_i),f(I_k))]_+\\(j=1,...,M且y_i=y_j;k=1,...,M且y_i≠y_k) LXI=i=M+12M[α1+maxD(f(Xi),f(Ij))minD(f(Xi),f(Ik))]+(j=1,...,Myi=yj;k=1,...,Myi=yk)其中 α 1 \alpha_1 α1是阈值参数, [ Z ] + = m a x ( z , 0 ) [Z]_+=max(z,0) [Z]+=max(z,0),通过困难样本挖掘, I − X I-X IX模态正样本对的欧式距离将被优化的比负样本对小, I − V I-V IV模态也类似。
    对于每一种模态,采用模态各自间隙(modality respective gap,MRG)约束 L M L_M LM来加快模型收敛,用交叉熵损失和改进的三重态损失优化特征学习: L M = L I + L X + L V L_M=L_I+L_X+L_V LM=LI+LX+LV以红外模态为例,组合损失约束定义为: L I = 1 M ( L I i d + L I t r i ) L_I=\frac{1}{M}(L_I^{id}+L_I^{tri}) LI=M1(LIid+LItri)其中 L I i d = − ∑ i = 1 M y i log ⁡ ( p i ) L_I^{id}=-\sum_{i=1}^M\textbf{y}_i\log (\textbf{p}_i) LIid=i=1Myilog(pi) L I t r i = ∑ i = 1 M [ α 2 + m a x    D ( f ( I i ) , f ( I j ) ) − m i n    D ( f ( I i ) , f ( I k ) ) ] + ( j = 1 , . . . , M 且 y i = y j ; k = 1 , . . . , M 且 y i ≠ y k ) L_I^{tri}=\sum_{i=1}^M[\alpha_2+max\,\,D(f(I_i),f(I_j))-min\,\,D(f(I_i),f(I_k))]_+\\(j=1,...,M且y_i=y_j;k=1,...,M且y_i≠y_k) LItri=i=1M[α2+maxD(f(Ii),f(Ij))minD(f(Ii),f(Ik))]+(j=1,...,Myi=yj;k=1,...,Myi=yk)

  • 优化
    端到端的方式, λ \lambda λ是超参数, L = L M + λ L C L=L_M+\lambda L_C L=LM+λLC

4.2 结果

result
本文的实验结果和上周对比(选取上周不同训练方案中的最好结果):

方法\数据集RegDBSYSU-MM01
r1(%)mAP(%)r1(%)mAP(%)
XIV-ReID62.2160.1849.9250.73
cm-SSFT72.372.961.663.2

5 总结

  1. 文章里定义IV-ReID为:用红外图来查询可见图,很含糊,容易让人以为用可见图query红外图是VI-ReID,文献[1]给出了答案,两种方法都叫做IV-ReID,也就是说当前研究环境下,cm-ReID主要是指IV-ReID,其中文献[1]就是上面实验结果提到的 D 2 R L D^2RL D2RL方法;
  2. 目前来看,做cm-ReID主要有几种方法:1)分别提取两种模态的特征;2)提取两种模态的单独特征和共享特征,融合在一起;3)用某种手段缩小模态间gap,比如GAN。本文是第三种方法,我目前还没看到无监督的cm-ReID。
  3. 基础需要再加强,下一步了解一下GCN(图卷积神经网络)和注意力机制,还有一个ResNet改版的强backbone——ResNeSt[2],虽然这篇文章是strong reject,但这个backbone确实很强,被拒的原因之一应该是做实验的时候使用了一些trick,但是不使用任何trick它也比ResNet强,所以后面可以试试,代码也开源了。

6 参考文献

[1] Wang Z, Wang Z, Zheng Y, et al. Learning to reduce dual-level discrepancy for infrared-visible person re-identification[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019: 618-626.
[2] Zhang H, Wu C, Zhang Z, et al. Resnest: Split-attention networks[J]. arXiv preprint arXiv:2004.08955, 2020.

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

远方的河岸

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值