Person Re-identification Datasets总结

本文详细总结了几个Person Re-identification的重要数据集,包括VIPeR、ETH、QMUL iLIDS和GRID,涵盖了视点变化、光照变化、遮挡等多种挑战。每个数据集的特性、应用场景和相关研究引用均有提及。
摘要由CSDN通过智能技术生成

总结一下Person ReID数据集,持续更新

链接:Person Re-identification Datasets

VIPeR[link]

该数据集包含两个相机,每个相机对每个人捕获一张图像。它还提供每个图像的视点角度。尽管它经过很多研究人员的测试,它仍然是最具有挑战性的数据集之一。Ryan Layne提供了VIPeR的属性注释。

Ref: D. Gray, and H. Tao, "Viewpoint Invariant Pedestrian Recognition with an Ensemble of Localized Features," in Proc. European Conference on Computer Vision (ECCV), 2008.

VIPeR:Viewpoint Invariant Pedestrian Recognition

提交人与提交时间:Submitted by Anonymous (not verified) on Sat, 09/22/2007 - 17:45

为了评估现代监控系统中外观模型的性能,需要包含大量视点和照明变化的数据集。VIPeR数据集包含在不同照明条件下从任意视点拍摄的632个行人的图像对。这些数据是耗时数月在学术环境中收集的。每张图像缩放为128x48像素。完整的数据集可以在此处下载:VIPeR.v1.0.zip


ETH[link]

与其它数据集从多个相机收集图像不同,ETH通过移动相机收集图像。尽管视点方差相对较小,但是它具有较大的照明方差、尺度方差和遮挡(等优点)。

Ref: W.R. Schwartz, L.S. Davis. Learning Discriminative Appearance-Based Models Using Partial Least Squares. Proceedings of the XXII Brazilian Symposium on Computer Graphics and Image Processing (SIBGRAPI'2009), Rio de Janeiro, Brazil, October 11-14, 2009.

 

ETHZ Dataset for Appearance-Based Modeling

Learning Discriminative Appearance-Based Models Using Partial Least Squares in SIBGRAPI'2009 该论文的实验结果使用了ETHZ数据集,该数据集在不受控制的情况下提供了大量不同的行人捕获(图像)。视频序列从移动的相机捕获,提供了不同范围的行人表现。

DATA

我们使用视频中人物的地面真实位置来裁剪每个人,然后为每个视频序列创建一个包含每个人的样本(p0??-p0??)目录。目录中的样本为原始大小,但在实验中,它们被调整为32x64像素。在实验中,我们选择每个人的一个样本基于外观模型和剩余分类样本来学习(该过程重复几次并使用平均值)。给出总体识别率的结果。下图显示了数据集的第一个视频序列中包含的裁剪样本的几个示例。

person1(p001):

person14(p014):

person23(p023):

从所有三个序列中使用的裁剪样本:[zip file(146MB)]

References

如果在你等工作中使用了该数据集,你需要标明引用:

W.R. Schwartz, L.S. Davis. Learning Discriminative Appearance-Based Models Using Partial Least Squares. Proceedings of the XXII Brazilian Symposium on Computer Graphics and Image Processing (SIBGRAPI'2009), Rio de Janeiro, Brazil, October 11-14, 2009.[pdf][BibTex]

注:实验中使用的样例从ETHZ数据集中获取,包括从论文Depth and Appearance for Mobile Scene Analysis. A. Ess and B. Leibe and L. Van Gool. ICCV'07中获取的三个视频序列,所以在使用该数据集的时候也需要引用这篇论文。(点击这里查看介绍)


QMUL iLIDS[link]

QMUL iLIDS基于iLIDS MCTS的数据集,是一个在机场繁忙时候通过监控系统中多个摄像头收集到的数据集。几乎每个ID(identity)都有从两个无重叠(区域)的摄像头拍摄的四幅图像。该数据集具有严重遮挡和姿势差异的场景。完整数据集可以在此处下载:i-LIDS_Pedestrian.tgz

Zheng et al. Associating Groups of People, BMVC 2009

i-LIDS datasets

i-LIDS目前有以下可供分发和评估的数据集。

事件监测场景:

  • 无菌区
  • 停放的车辆
  • 被遗弃的行李
  • 走廊监控
  • 新技术

追踪场景:

  • 多摄像头追踪 

 该方案提供数据集用来训练和测试。你可以在此处找到有关方案定义的更多信息。


GRID[link]

GRID是在繁忙的地铁站通过8个不相交的摄像头收集的。每个ID(identity)具有来自不同视角的两幅图像,并且gallery set比probe set的图像更多。该数据集图像质量非常差。

Ref: Loy, C. C., Liu, C., & Gong, S. (2013, September). Person re-identification by manifold ranking. In 2013 IEEE International Conference on Image Processing (pp. 3567-3571). IEEE.

QMUL underGround Re-IDentification (GRID) Dataset

下载数据集(Download

细节描述

QMUL underGround Re-IDentification (GRID)该数据集包含250位行人图像对。每对包含从不同摄像机视角看到的同一个体的两个图像。所有图像都是从安装在繁忙地铁站的8个不相交的摄像机视角中捕获的。旁边的图展示了地铁站的每个摄像机视角和数据集中样本图像的快照。由于姿势、颜色、灯光的变化,以及由低空间分辨率导致的较差的图像质量,该数据集具有挑战性。

有两个文件夹:

“probe”文件夹包含在一个视角中捕获的250个probe图像。

“gallery”文件夹包含在其他视角中捕获的250个probe图像。此外,总共有775个不属于任何probe的额外图像。在交叉验证期间,应该将这些额外图像视为测试集中的固定部分。

该数据集仅用于研究目的,因此不能在商业上使用。当该数据集用于任何学术和研究报告时,请按照以下方式引用。

References

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值