CVPR2019行人重识别、车辆重识别及行人图像生成论文汇总

CVPR2019全部论文链接

论文题目

1、Joint Discriminative and Generative Learning for Person Re-identification

paper

Motivation

最近,人们对使用生成模型来增强训练数据和增强输入变量中的不变性越来越感兴趣。然而,现有方法中的生成方法与Re-ID特征学习阶段相对独立。相应地,Re-ID模型通常以直接的方式对生成的数据进行训练。在本文中,我们试图通过更好地利用生成的数据来改善所学的Re-ID特征。为此我们提出了一个联合学习框架,将Re-ID学习和数据生成端到端的结合起来。我们的模型包括一个生成模块,它将每个人分别编码为外观编码和结构编码(姿态),以及一个与生成模块共享外观编码器的识别模块。通过切换外观或结构编码,生成模块能够生成高质量的交叉ID的合成图像,在线反馈给外观编码器,用于改进识别模块。提出的联合学习框架在不使用生成数据的情况下显著改善了baseline,从而在多个常用数据集上实现了最好的性能。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2、Unsupervised Person Re-identification by Soft Multilabel Learning

paper
code

Motivation

无监督RE-ID由于其在解决有监督模型的可扩展性问题上的潜力而引起了越来越多的研究关注。为了克服无重叠相机中没有成对标签的问题,本文提出了一种无监督RE-ID的软多标签学习的深度模型。通过将未标记行人与辅助域中的一组已知参考行人进行比较,给每个未标记行人学习一种软多标签(类似实值标签的似然向量)。作者提出了软多标签引导的难采样样本挖掘,通过探索视觉特征与未标注目标对软多标签的相似度一致性,来学习一种有判别力的特征描述。由于大多数目标对都是交叉视角对,因此我们设计了一种交叉视角下的一致性软多标签学习方法,以实现软多标签在不同摄像机视角上的一致性。为了实现高效的软多标签学习,我们引入了参考代理学习,在联合嵌入中通过参考代理来表示每个参考人。

Contribution

(1)本文采用一种新的软多标签参考学习方法来解决无监督RE-ID问题,利用辅助源数据集进行参考比较,挖掘出未标记RE-ID数据中潜在的标签信息。
(2)提出了一种新的深度模型,即深度软多标签参考学习(MAR)。MAR实现了将软多标签引导的难样本挖掘、跨视角一致的软多标签学习和参考代理学习统一在一个统一的模型中。
在Market-1501 和DukeMTMC-reID上的实验结果表明,模型达到了state-of-the-art。
算法框图
在这里插入图片描述
在这里插入图片描述在这里插入图片描述

3、Learning Context Graph for Person Search

paper

Movitation

深度卷积神经网络在行人重识别方面取得了很大的进展。然而,以往的方法大多侧重于学习行人的外观特征,而在不同的光照、较大的姿态变化和遮挡条件下,模型很难处理困难的情况。本文作者进一步考虑使用上下文信息进行行人检索。对于检索和被检索的图像对,作者首先提出了一个上下文信息实例扩展模型,该模型使用相对注意模块来搜索和过滤场景中有用的上下文信息。此外作者还构建了一个图学习框架,有效地利用上下文信息对更新目标的相似性。这两个模块构建在联合检测和实例特征学习框架之上,提高了所学特征的识别效果。该框架在两个广泛使用的行人重识别数据集上实现了最先进的性能。

Contribution

1)将多部分学习方案引入到行人重识别中,支持端到端的行人检测和多部分特征学习。
2)引入相对注意模型,对场景进行信息上下文自适应选择。
3)构建了一个图来学习考虑上下文信息的两个人之间的全局相似性。
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4、Progressive Pose Attention Transfer for Person Image Generation

paper

5、Perceive Where to Focus: Learning Visibility-aware Part-level Features for Partial Person Re-identification

paper
论文中考虑了行人重新识别 (re-ID) 的一个现实问题,即局部行人重识别问题。在局部行人重识别场景下,需要探索数据库图像中包含整体人物的比例大小。如果直接将局部行人图像与整体行人图像进行比较,则极端空间错位问题将显著地损害特征表征学习的判别能力。针对这个问题,本文提出了一个局部可见感知模型 (VPM),通过自监督学习感知可见区域内的特征,来解决局部行人重识别问题。该模型利用可见感知的特性,能够提取区域特征并比较两张图像的共享区域 (共享区域在两张图像上都是可见区域),从而局部行人重识别问题上取得更好的表现。总的来说,VPM 有两大优势:一方面,与学习全局特征的模型相比,VPM 模型通过学习图像区域特征,能够更好地提取一些细粒度特征信息。另一方面,利用可见感知特征,VPM 能够估计两个图像之间的共享区域,从而抑制空间错位问题。通过大量的实验结果验证,VPM 模型能够显著地改善特征表征的学习能力,并且在局部和整体行人重识别场景中,均可获得与当前最先进方法相当的性能。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

6、Invariance Matters: Exemplar Memory for Domain Adaptive Person Re-identification

paper

7、Dissecting Person Re-identification from the Viewpoint of Viewpoint

paper

8、Densely Semantically Aligned Person Re-Identification

paper

9、Generalizable Person Re-identification by Domain-Invariant Mapping Network

paper

10、Re-ranking via Metric Fusion for Object Retrieval and Person Re-identification

paper

11、Weakly Supervised Person Re-Identification

paper

12、Query-guided End-to-End Person Search

paper

13、Distilled Person Re-identification: Towards a More Scalable System

paper

14、Towards Rich Feature Discovery with Class Activation Maps Augmentation for Person Re-Identification

paper

15、Patch Based Discriminative Feature Learning for Unsupervised Person Re-identification

paper

16、Unsupervised Person Image Generation with Semantic Parsing Transformation

paper

17、Text Guided Person Image Synthesis

paper

18、Attribute-Driven Feature Disentangling and Temporal Aggregation for Video Person Re-Identification

paper

19、AANet: Attribute Attentio Network for Person Re-Identification

paper

20、VRSTC: Occlusion-Free Video Person Re-Identification

paper
针对视频行人重识别的部分遮挡问题,我们提出了一个时空补全网络(Spatio-Temporal Completion network, STCnet)用来精确的恢复遮挡部位的信息。一方面,STCnet利用行人的空间结构信息,从当前行人帧中未被遮挡的身体部位信息预测出被遮挡的身体部位。另一方面,STCnet利用行人序列的时序信息去预测被遮挡部位。通过联合STCnet和一个行人再识别网络,我们获得了一个对部分遮挡鲁棒的视频行人再识别框架。在当前主流的视频行人再识别数据库(iLIDS-VID, MARS, DukeMTMC-VideoReID)上,我们提出的框架都优于当前最好的方法。
在这里插入图片描述

21、Adaptive Transfer Network for Cross-Domain Person Re-Identification

paper

22、Interaction-and-Aggregation Network for Person Re-identification

paper
由于卷积单元固定的几何结构,传统的卷积神经网络本质上受限于对行人大的姿态和尺度变化建模。我们提出了一个网络结构(Interaction-and-Aggregation, IA)用来增强卷积网络对行人的特征表示能力。首先,空间IA模块通过建模空间特征的关联来整合对应相同身体部位的特征。区别于卷积神经网络从一个固定的矩形区域提取特征,空间IA能够根据输入行人的姿态和尺度自适应的决定感受野。其次,通道IA模块通过建模通道特征的关联进一步增强特征表示。我们在多个数据上验证了我们方法的有效性,并且都超过了目前最好的方法。
在这里插入图片描述

23、Re-Identification with Consistent Attentive Siamese Networks

paper

24、Pyramidal Person Re-IDentification via Multi-Loss Dynamic Training

paper

Motivation

大多数现有的行人重识别方法高度依赖于精确的边界框,这些边界框可以使图像彼此对齐。然而,由于不可避免的挑战性场景,当前的检测模型往往会输出不准确的边界框,这必然会恶化这些Re-ID算法的性能。本文提出了一种新的粗-细金字塔模型,该模型不仅融合了局部和全局信息,而且融合了它们之间的渐进线索。金字塔模型能够在不同的尺度上匹配线索,然后搜索相同身份的正确图像,即使图像对没有对齐。此外,为了学习识别性的行人特征,作者探索了一种动态训练方案,以无缝地统一两种损失,并提取它们之间适当的共享信息。实验结果表明,该方法在三个数据集上都达到了最先进的结果,值得注意的是,在最具挑战性的数据集CUHK03上,超过了目前的最佳方法9.5%。

Contribution

1)为了放松对强检测模型的假设,我们提出了一种新的粗到细金字塔模型,它不仅融合了局部和全局信息,而且整合了它们之间的渐进线索。
2)为了最大限度地利用不同的损失,我们探索了一种动态训练方案,将两种损失无缝地统一起来,并提取出它们之间适当的共享信息,用于学习识别性身份特征。
3)该方法在三个数据集上都达到了最先进的结果,最显著的是,我们的方法在数据集CUHK03上超过了当前的最佳方法9.5%。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

25、CityFlow: A City-Scale Benchmark for Multi-Target Multi-Camera Vehicle Tracking and Re-Identification

paper

26、Re-Identification Supervised 3D Texture Generation

paper
近年来,对单张图像中人体 3D 姿态和形状估计的研究得到了广泛关注。然而,在图像 3D 纹理生成领域的研究却相当的欠缺。针对这个问题,本文提出一种端到端的学习策略,利用行人重识别的监督信息,来解决图像中人体纹理生成问题。该方法的核心思想是,利用输入的图像渲染图像中行人纹理,并将行人重识别网络作为一种感知标准,来最大化渲染图像和输入原图像之间的相似性。本文在行人图像上进行了大量的实验,结果表明所提出的方法能够从单张图像输入中生成纹理,其质量明显优于其他方法所生成的纹理。此外,本文将此应用扩展到其他方面,并探索所生成纹理的可使用性。
在这里插入图片描述
在这里插入图片描述

27、Learning to Reduce Dual-Level Discrepancy for Infrared-Visible Person Re-Identification

paper

28、Patch-Based Discriminative Feature Learning for Unsupervised Person Re-Identification

paper

29、Coordinate-Based Texture Inpainting for Pose-Guided Human Image Generation

paper

30、VERI-Wild: A Large Dataset and a New Method for Vehicle Re-Identification in the Wild

paper

31、Part-Regularized Near-Duplicate Vehicle Re-Identification

paper

32、DeepFashion2: A Versatile Benchmark for Detection, Pose Estimation, Segmentation and Re-Identification of Clothing Images

paper

33、Re-Identification With Consistent Attentive Siamese Networks

paper

  • 9
    点赞
  • 88
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值