行人重识别简介+数据集+核心论文点

 

1、行人重识别是什么?

行人重识别(Person re-identification)也称行人再识别,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。广泛被认为是一个图像检索的子问题。 给定一个监控行人图像,检索跨设备下的该行人图像。旨在弥补目前固定的摄像头的视觉局限,并可与行人检测/行人跟踪技术相结合 ,可广泛应用于智能视频监控、智能安保等领域。

        行人再识别(Person Re-Identification,简称 ReID),从字面意思理解就是对行人进行重新识别,是对不同的、没有视野重叠覆盖的(non-overlapping)摄像机拍摄的行人图像建立对应关系的处理过程。当摄像头拍摄范围之间不存在重叠时,由于没有了连续信息,检索难度也随之增大非常多。因此,行人再识别强调的是在跨摄像机的视频中对特定行人进行检索。

注:图像检索分为两种,一种是基于文本的图像检索,另一种是基于内容的图像检索。基于内容的图像检索(Content-based Image Retrieval,简称CBIR)技术是对图像的内容语义,如图像的颜色、纹理、布局等进行分析和检索的图像检索技术。

基本概述:在检索原理上,无论是基于文本的图像检索还是基于内容的图像检索,主要包括三方面:一方面对用户需求的分析和转化,形成可以检索索引数据库的提问;另一方面,收集和加工图像资源,提取特征,分析并进行标引,建立图像的索引数据库;最后一方面是根据相似度算法,计算用户提问与索引数据库中记录的相似度大小,提取出满足阈值的记录作为结果,按照相似度降序的方式输出。 [2] 

2、行人重识别能用来做什么?

行人再识别(ReID)在公共安防的刑侦工作中以及图像检索等场景中有很高的应用价值。除此之外,ReID还可以帮助手机用户实现相册聚类、帮助零售或商超经营者获取有效的顾客轨迹、挖掘商业价值。也可以追踪失踪儿童,罪犯,小偷/保护vip等。

 

3、与行人重识别有关的问题

3.1  ReID的难点

由于图像拍摄的时间、地点随机,且光线、角度、姿态不同,再加上行人容易受到检测精度、遮挡等因素的影响, ReID的研究工作非常具有挑战性。

3.2 行人重识别 和 人脸识别 有什么不同?

  • 行人重识别 是用一个摄像头下的照片 去认其他摄像头下是否再次出现了这个人。需处理摄像头的viewpoint变化,行人的姿态变化等。
  • 人脸识别 是给定pair,去识别是不是同一个人,或者找到照片库中见过的人。
  • 行人和人脸一样具有结构,但行人结构更复杂一些,部件更多,不容易对齐。
  • 大型行人数据集难以获得,不像人脸可以扒名人。现有行人重识别数据集(DukeMTMC-reID,CUHK03,Market-1501等等)都是在校园中实际用摄像头录的。而早期的小数据集(Viper等)已无法提供全面评估,逐渐少用。
  • 行人重识别落地的产品很少, 而人脸识别的大量应用已经落地
  •  

3.3 行人重识别能不能用人脸识别做重识别?

理论上是可以的。但是有两个原因导致人脸识别较难应用:首先,广泛存在后脑勺和侧脸的情况,做正脸的人脸识别难。其次,摄像头拍摄的像素可能不高,尤其是远景摄像头里面人脸截出来很可能都没有32x32的像素。所以人脸识别在实际的重识别应用中很可能有限。

3.4 有些人靠衣服的颜色就可以判断出来了,还需要行人重识别么?

衣服颜色确实是行人重识别 做出判断一个重要因素,但光靠颜色是不足的。首先,摄像头之间是有色差,并且会有光照的影响。其次,有撞衫(颜色相似)的人怎么办,要找细节,但比如颜色直方图这种统计的特征就把细节给忽略了。(颜色直方图的缺点:统计特征粗糙,忽视细节处理)在多个数据集上的测试表明,光用颜色特征是难以达到50%的top1正确率的。

3.5 使用图像检索的指标来衡量行人重识别的结果是否合适?

在早期,行人重识别数据集是由两个摄像头采集的比如viper,每个query只有一个正确的retrieval目标。所以往往使用top1比较。但在近期,随着大数据集的提出,数据集中往往包含多个摄像头的多个正确目标。光使用top1的话,不能反应模型的真实能力。所以类似图像检索,重识别加入了mAP作为衡量标准,将top2,top3...topn都考虑进去。

3.6 如何处理多摄像头下图像中行人变化问题?

多个摄像头下拍摄行人的角度不同,图像中的行人可能72变。(如图1)所以要正确判断的话,就要找到行人上的局部不变的part(比如:衣服颜色,衣服纹理,手提包,背包等等)。在计算机视觉中,常用的特征就有颜色直方图等等

图1 (DukeMTMC-reID 数据集的retrieval demo)

3.7 如何进行测试?

主要有两种方案:

a.测试的输入是一对行人,输出为这对行人的相似度,然后再按相似度排序;

b.输入单个人,提取特征,再计算与其他人的欧式距离,然后再按距离排序。

第一种方案的优点是,判断两个人是不是一个人,简单的二分类(是/否)。但缺点是如果我们搜索库中有m张图片,那么与目标图片组成m对图片对。每一对都要进一次模型,估算相似度,这极大的增加了测试的时间。如果我们有n个query,那么我们要计算nm次相似度(而m往往很大)。另一种方案是,预先提取行人的特征,我们只要预先提好n+m次特征。之后只要比较就好了,比较特征可以简单的用矩阵乘法实现。

目前两种方案都有在用,但是后一种更接近实际中图像搜索的要求,用特征来快速检索。

3.8 科研中的方案

概括得不全,比较直接和简要的想法有以下两种(主要在神经网络上实现):

1. Part匹配:一部分一部分来比较。

a.常见方案是水平切条,就是将图像切为几个水平的条。由于人体身材往往差不多,所以可以用简单的水平条来做一一比较 [1,2,3,4]。

b.在领域中做匹配,采用的是一个正方形的领域 [6]。

c.另一个较新的方案是先在人体上检测部件(手,腿,躯干等等)再进行匹配,这样的话可以减少位置的误差,但可能引入检测部件的误差 [7,8]。

d. 类似LSTM的attention匹配,但必须pair输入,测试时间较长。[5,10]

 

2.Loss设计:常见的几种学习特征表达的loss

a. identification loss 直接拿身份label做多类分类 [9]

 

b.verification loss [2,3,5,6] (主要是contrastive loss。[3, 6]中采用的是二分类loss)

c. identification loss + verification loss [11,12]

d. triplet loss [10,13,14]

e. 加入辅助任务 比如使用attribute等等 [15],

f. 数据增强 混合多数据集训练 [16] ,加入训练集上GAN生成的数据 [17].

目前有一些公开的代码,可详见之前的知乎回答:有哪些行人重识别公开代码 做了一些汇总。

 

更多内容 关注 行人重识别 专栏

 

Reference

[1] Shengcai Liao, Yang Hu, Xiangyu Zhu, and Stan Z Li. 2015. Person re-identification by local maximal occurrence representation and metric http://learning.In CVPR.

[2] Dong Yi, Zhen Lei, Shengcai Liao, and Stan Z Li. 2014. Deep metric learning for person re-identification. In ICPR.

[3] Wei Li, Rui Zhao, Tong Xiao, and Xiaogang Wang. 2014. Deepreid: Deep filter pairing neural network for person re-identification. In CVPR.

[4] Rui Zhao, Wanli Ouyang, and Xiaogang Wang. 2013. Person re-identification by salience matching. In ICCV.

[5] Rahul Rama Varior, Mrinal Haloi, and Gang Wang. 2016. Gated siamese convolutional neural network architecture for human re-identification. In ECCV.

[6] Ejaz Ahmed, Michael Jones, and Tim K Marks. 2015. An improved deep learning architecture for person re-identification. In CVPR.

[7] Liang Zheng, Yujia Huang, Huchuan Lu, and Yi Yang. 2017. Pose Invariant Embedding for Deep Person Re-identication. arXiv:1701.07732.

[8] Dong Seon Cheng, Marco Cristani, Michele Stoppa, Loris Bazzani, and Vittorio Murino. 2011. Custom Pictorial Structures for Re-identification.. In BMVC.

[9] Liang Zheng, Yi Yang, and Alexander G Hauptmann. 2016. Person Re-identification: Past, Present and Future. arXiv:1610.02984

[10] Hao Liu, Jiashi Feng, Meibin Qi, Jianguo Jiang, and Shuicheng Yan. 2016. End-to-End Comparative Attention Networks for Person Re-identification. arXiv:1606.04404

 

[11] Zheng Z, Zheng L, Yang Y. A Discriminatively Learned CNN Embedding for Person Re-identification[J]. arXiv preprint arXiv:1611.05666, 2016.

[12] Mengyue Geng, Yaowei Wang, Tao Xiang, and Yonghong Tian. 2016. Deep Transfer Learning for Person Re-identification. arXiv:1603.06765

[13] Shengyong Ding, Liang Lin, Guangrun Wang, and Hongyang Chao. 2015. Deep feature learning with relative distance comparison for person re-identification. Pattern Recognition 48, 10 (2015), 2993–3003.

[14] Alexander Hermans, Lucas Beyer, and Bastian Leibe. 2017. In Defense of the Triplet Loss for Person Re-Identification. arXiv:1703.07737

[15] Yutian Lin, Liang Zheng, Zhedong Zheng, Yu Wu, and Yi Yang. 2017. Improving Person Re-identification by Attribute and Identity Learning. arXiv:1703.07220

[16] Tong Xiao, Hongsheng Li, Wanli Ouyang, and Xiaogang Wang. 2016. Learning deep feature representations with domain guided dropout for person reidentification. In CVPR.

[17] Zhedong Zheng, Liang Zheng, and Yi Yang. 2017. Unlabeled Samples Generated by GAN Improve the Person Re-identification Baseline in vitro. arXiv:1701.07717

注:3.2-3.7的参考文章地址:https://zhuanlan.zhihu.com/p/26168232

4 资料整理

4.1行人重识别常用 Large-scale 数据集

 

该数据集在杜克大学内采集,图像来自8个不同摄像头。该数据集提供训练集和测试集。 训练集包含16,522张图像,测试集包含 17,661 张图像。训练数据中一共有702人,平均每类(每个人)有23.5 张训练数据。是目前最大的行人重识别数据集,并且提供了行人属性(性别/长短袖/是否背包等)的标注。DukeMTMC-reID 为 DukeMTMC数据集的行人重识别子集。原始数据集地址(http://vision.cs.duke.edu/DukeMTMC/) ,为行人跟踪数据集。原始数据集包含了85分钟的高分辨率视频,采集自8个不同的摄像头。并且提供了人工标注的bounding box.

数据解释: 我们从视频中每120帧采样一张图像,得到了 36,411张图像。一共有1,404个人出现在大于两个摄像头下,有408个人只出现在一个摄像头下。所以我们随机采样了 702(是两个摄像头下人数的一半) 个人作为训练集,702个人作为测试集。在测试集中,我们采样了每个ID的每个摄像头下的一张照片作为 查询图像(query)。剩下的图像加入测试的 搜索库(gallery),并且将之前的 408人作为干扰项,也加到 gallery中。最终,DukeMTMC-reID 包含了 16,522张训练图片(来自702个人), 2,228个查询图像(来自另外的702个人),以及 17,661 张图像的搜索库(gallery)。并提供切割后的图像供下载。

**图像命名规则为**

"0005_c2_f0046985.jpg", "0005" 代表行人的身份. "c2"代表这张图像来自第二个摄像头. "f0046985" 代表来自摄像头2的 第46985帧.另外,DukeMTMC-reID还提供了23种属性数据标注 DukeMTMC-attribute供下载。https://github.com/vana77/DukeMTMC-attribute

  • Market-1501 (于清华校园 夏天拍摄 主要为清华学生)
  • 下载地址:  PRW, Mars: Liang Zheng's Homepage 

该数据集在清华大学校园中采集,图像来自6个不同的摄像头,其中有一个摄像头为低像素。同时该数据集提供训练集和测试集。 训练集包含12,936张图像,测试集包含19,732 张图像。图像由检测器自动检测并切割,包含一些检测误差(接近实际使用情况)。训练数据中一共有751人,测试集中有750人。所以在训练集中,平均每类(每个人)有17.2张训练数据。

  • CUHK03 (于香港中文大学拍摄 集中于地铁站 光线稍暗)
  • 下载地址: CUHK01, 02, 03: Rui Zhao's Homepage 

该数据集在香港中文大学内采集,图像来自2个不同摄像头。该数据集提供 机器检测和手工检测两个数据集。 其中检测数据集包含一些检测误差,更接近实际情况。平均每个人有9.6张训练数据。

4.2 行人重识别需要看哪些论文?

     关于行人重识别综述,推荐一下liang zheng 2016年的综述: Past, Present and Future 写了从传统方法到深度学习,从图片到视频的行人重识别的方法。

 

正式接收的论文名单

Oral:

  1. Group Consistent Similarity Learning via Deep CRFs for Person Re-Identification Dapeng Chen, CUHK; Dan Xu, ; Hongsheng Li, ; Nicu Sebe, University of Trento, Italy; Xiaogang Wang, Chinese University of Hong Kong

Spotlight:

  1. Person Transfer GAN to Bridge Domain Gap for Person Re-Identification, Longhui Wei, Peking University; Shiliang Zhang, Peking University; Wen Gao, ; Qi Tian [arXiv]
  2. Disentangled Person Image Generation,Liqian Ma, KU Leuven; Qianru Sun, MPI for Informatics; Stamatios Georgoulis, KU Leuven; Mario Fritz, MPI, Saarbrucken, Germany; Bernt Schiele, MPI Informatics Germany; Luc Van Gool, KU Leuven [arXiv]
  3. Unsupervised Person Image Synthesis in Arbitrary Poses, Albert Pumarola, IRI (CSIC-UPC); Antonio Agudo, IRI (CSIC-UPC); Alberto Sanfeliu, IRI (CSIC-UPC); Francesc Moreno-Noguer, Institut de Robotica i Informatica Industrial (UPC/CSIC)
  4. Good Appearance Features for Multi-Target Multi-Camera Tracking, Ergys Ristani, Duke University; Carlo Tomasi, Duke University

Poster:

  1. Diversity Regularized Spatiotemporal Attention for Video-based Person Re-identification, Shuang Li, The Chinese University of HK; Slawomir Bak, Disney Research; Peter Carr, Disney Research [arXiv]
  2. A Pose-Sensitive Embedding for Person Re-Identification with Expanded Cross Neighborhood Re-Ranking,M. Saquib Sarfraz, KIT; Arne Schumann, KIT; Andreas Eberle, KIT; Rainer Stiefelhagen, Karlsruhe Institute of Technology[arXiv]
  3. Image-Image Domain Adaptation with Preserved Self-Similarity and Domain-Dissimilarity for Person Re-identification, Weijian Deng, University of Chinese Academy; Liang Zheng, University of Texas at San Ant; GUOLIANG KANG, UTS; Yi Yang, ; Qixiang Ye, ; Jianbin Jiao,[arXiv]
  4. Human Semantic Parsing for Person Re-identification, Mahdi Kalayeh, UCF; Emrah Basaran, ; Mubarak Shah, UCF
  5. Video Person Re-identification with Competitive Snippet-similarity Aggregation and Co-attentive Snippet Embedding Dapeng Chen, CUHK; Hongsheng Li, ; Tong Xiao, The Chinese University of HK; Shuai Yi, The Chinese University of Hong Kong; Xiaogang Wang, Chinese University of Hong Kong
  6. Mask-guided Contrastive Attention Model for Person Re-Identification, Chunfeng Song, CASIA; Yan Huang, ; Wanli Ouyang, ; Liang Wang, unknown
  7. Person Re-identification with Cascaded Pairwise Convolutions, Yicheng Wang, ; Zhenzhong Chen, Wuhan University; Feng Wu, ; Gang Wang,
  8. Multi-Level Factorisation Net for Person Re-Identification, Xiaobin Chang, Queen Mary Univ. of London; Timothy Hospedales, University of Edinburgh; Tao Xiang, Queen Mary University of London[arXiv]
  9. Attention-aware Compositional Network for Person Re-Identification, Jing Xu, SenseNets Technology Limited; Rui Zhao, SenseNets Technology Limited; Feng Zhu, SenseNets Technology Limited; Huaming Wang, SenseNets Technology Limited; Wanli Ouyang, The University of Sydney
  10. Deep Group-shuffling Random Walk for Person Re-identification, Yantao Shen, CUHK; Hongsheng Li, ; Tong Xiao, The Chinese University of HK; Shuai Yi, The Chinese University of Hong Kong; Dapeng Chen, CUHK; Xiaogang Wang, Chinese University of Hong Kong
  11. Transferable Joint Attribute-Identity Deep Learning for Unsupervised Person Re-Identification, Jingya Wang, QMUL; Xiatian Zhu, Vision Semantics Ltd.; Shaogang Gong, Queen Mary University; Wei Li, Queen Mary University of Lond[arXiv]
  12. Harmonious Attention Network for Person Re-Identification,Wei Li, Queen Mary University of Lond; Xiatian Zhu, Vision Semantics Ltd.; Shaogang Gong, Queen Mary University[arXiv]
  13. Efficient and Deep Person Re-Identification using Multi-Level Similarity,Yiluan Guo, SUTD; Ngai-Man Cheung,[arXiv]
  14. Pose Transferrable Person Re-Identification,Jinxian Liu, Shanghai Jiao Tong University; Yichao Yan, Shanghai Jiao Tong University; Bingbing Ni, ; Peng Zhou, Sjtu; Shuo Cheng, SJTU; jianguo Hu, Minivision
  15. Adversarially Occluded Samples for Person Re-identification,Houjing Huang, CASIA; Dangwei Li, ; Zhang Zhang, ; Xiaotang Chen, ; Kaiqi Huang,
  16. Camera Style Adaptation for Person Re-identification,Zhun Zhong, Xiamen University; Liang Zheng, SUTD; Zhedong Zheng, UTS; Shaozi Li, ; Yi Yang, University of Technology, Sydney[arXiv]
  17. Exploit the Unknown Gradually:~ One-Shot Video-Based Person Re-Identification by Stepwise Learning,Yu Wu, University of technology sydne; Yutian Lin, ; Xuanyi Dong, UTS; Yan Yan, UTS; Wanli Ouyang, The University of Sydney; Yi Yang,
  18. Dual Attention Matching Network for Context-Aware Feature Sequence based Person Re-Identification,Jianlou Si, BUPT; Honggang Zhang, ; Chun-Guang Li, Beijing Univ. of Posts&Telecom; Jason Kuen, NTU, Singapore; Xiangfei Kong, Nanyang Technological University; Alex Kot, ; Gang Wang,[arXiv]
  19. Easy Identification from Better Constraints: Multi-Shot Person Re-Identification from Reference Constraints,Jiahuan Zhou, Northwestern University; Bing Su, Chinese Academy of Sciences; Ying Wu, Northwestern University, USA
  20. Eliminating Background-bias for Robust Person Re-identification,Maoqing Tian, Sensetime Limited; Shuai Yi, The Chinese University of Hong Kong; Hongsheng Li, ; Shihua Li, ; Xuesen Zhang, SenseTime; Jianping Shi, SenseTime; Junjie Yan, ; Xiaogang Wang, Chinese University of Hong Kong
  21. End-to-End Deep Kronecker-Product Matching for Person Re-identification,Yantao Shen, CUHK; Tong Xiao, The Chinese University of HK; Hongsheng Li, ; Shuai Yi, The Chinese University of Hong Kong; Xiaogang Wang, Chinese University of Hong Kong
  22. Exploiting Transitivity for Learning Person Re-identification Models on a Budget,Sourya Roy, UC Riverside ; Sujoy Paul, UC Riverside; Neal Young, UC Riverside ; Amit Roy-Chowdhury, UC Riverside
  23. Deep Spatial Feature Reconstruction for Partial Person Re-identification,Lingxiao He, Institute of AutomationChines; Jian Liang, CASIA; Haiqing Li, ; Zhenan Sun, CRIPAC[arXiv]
  24. Unsupervised Cross-dataset Person Re-identification by Transfer Learning of Spatio-temporal Patterns,Jianming Lv, South China University of Technology; Weihang Chen, South China University of Technology; Qing Li, City University of Hong Kong; Can Yang, South China University of Technology[arXiv]
  25. Resource Aware Person Re-identification across Multiple ResolutionsYan Wang, Cornell university; Lequn Wang, Cornell University; yurong you, shang hai jiao tong university; xu zou, tsinghua university; Vincent Chen, cornell university; Serena Li, CORNELL UNIVERSITY; Bharath Hariharan, Cornell University; Gao Huang, ; Kilian Weinberger, Cornell University
  26. Multi-shot Pedestrian Re-identification via Sequential Decision Making, Jianfu Zhang, Shanghai Jiaotong University; Naiyan Wang, tusimple; Liqing Zhang, Shanghai Jiaotong University
  27. Deep Mutual Learning Ying Zhang, QMUL; Tao Xiang, Queen Mary University of London; Timothy Hospedales, University of Edinburgh; Huchuan Lu, Dalian University of Technology
  28. 部分算法在DukeMTMC-reID 效果排名:

    DukeMTMC-reID State-of-the-art​github.com

4.3 行人重识别有关的公开代码

以下为一些公开的行人重识别代码链接:

 

 

 

  • 6
    点赞
  • 78
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: RGB-IR行人重识别数据集是一种用于行人重识别任务的数据集。该数据集中包含了同时包含RGB图像和红外图像的行人图像数据。 行人重识别是一种通过分析和比较行人的外貌特征,来判断是否为同一人的任务。而RGB图像和红外图像分别捕捉了行人的可见光和热能信息,可以提供更全面的行人特征来进行重识别。 通过使用这个数据集,研究人员和开发者可以进行行人重识别算法的开发和评估。这个数据集提供了大量的行人图像,包含了不同场景下的行人,如室内、室外、光照变化等。同时,数据集中的RGB-IR图像也提供了不同的行人外貌特征信息,有助于提高重识别算法的准确性和鲁棒性。 研究人员可以利用这个数据集来开发新的行人重识别算法,比如使用深度学习模型,利用RGB和IR图像进行特征提取和匹配。而开发者可以使用数据集进行算法的评估和比较,帮助选择合适的算法来解决实际的行人重识别问题。 总之,RGB-IR行人重识别数据集提供了丰富的行人图像,可以帮助研究人员和开发者进一步研究和应用行人重识别技术。这将有助于提高视频监控、人脸识别、人流统计等应用的精确性和实用性。 ### 回答2: RGB-IR行人重识别数据集是一种用于行人身份识别研究的数据集。它通过结合了RGB(红绿蓝)图像和IR(红外线)图像,提供了更多的信息来增强人物的识别准确性。 该数据集包含了一系列行人的图像数据,每个行人都有对应的RGB图像和IR图像。这两种图像具有不同的传感器来源,可以提供互补的信息。例如,RGB图像可以提供外观特征(如衣着颜色、发型等),而IR图像则可以提供独特的热像学特征(如体温分布)。 RGB-IR行人重识别数据集通常用于开展行人身份识别算法的研究和评估。研究者可以使用这个数据集来开发新的识别算法,通过比较两种不同源的图像数据,减少视角、光照、季节等因素的影响,提高行人重识别的准确率。 利用这个数据集,研究者可以探究各种问题,如如何利用RGB-IR图像进行特征融合、跨数据源的行人重识别、如何应对行人不同的表观变化等。通过这些研究,可以进一步推动行人重识别技术的发展,为社会安防、交通监控等领域提供更好的解决方案。 综上所述,RGB-IR行人重识别数据集是一个有助于行人身份识别研究的数据集。通过利用其中的RGB和IR图像,研究者可以开展行人重识别算法的研究和评估,并通过这些研究推动相关技术的发展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值