一、Market1501
描述:
Market1501数据集示例图像。所有图像为128*64。(上)具有独特外观的行人(中)外观相似的行人(下)干扰图像和无用图像
共6台摄像机放在校园超市前面,其中包括5台1280*1080高清摄像机和1台720*576 SD摄像机,这些摄像头之间存在重叠,该数据集包含1306个行人的32668个包围框。 由于开放的环境,每个行人的图像最多由六台摄像机拍摄。我们确保每个标注的行人都至少由两台摄像头拍摄,以便进行跨摄像头搜索。
数据集被随机分为训练集和测试集,分别包含750和751个行人。训练集有 751 人,包含 12,936 张图像,平均每个人有 17.2 张训练数据;测试集有 750 人,包含 19,732 张图像,平均每个人有 26.3 张测试数据。3368 张查询图像的行人检测矩形框是人工绘制的,而 gallery 中的行人检测矩形框则是使用DPM检测器检测得到的。该数据集提供的固定数量的训练集和测试集均可以在single-shot或multi-shot测试设置下使用。在测试过程中,对于每个行人,我们在每台摄像机中选择一个查询图像。请注意,所选的查询是手绘的,而不是像在gallery中那样用DPM检测。原因在于,实际上,交互式绘制一个包围框非常方便,它可以产生更高的识别准确度[20]。搜索过程以跨摄像机模式执行,即,与查询一样来自同一摄像机捕获的相关图像被视为“无效”。在这种情况下,一个行人最多有6个查询,总共有3368个查询图像。
目录结构
1) “bounding_box_test”——用于测试集的 750 人,包含 19,732 张图像,前缀为 0000 表示在提取这 750 人的过程中DPM检测错的图(可能与query是同一个人),-1 表示检测出来其他人的图(不在这 750 人中)
2) “bounding_box_train”——用于训练集的 751 人,包含 12,936 张图像
3) “query”——为 750 人在每个摄像头中随机选择一张图像作为query,因此一个人的query最多有 6 个,共有 3,368 张图像
4) “gt_query”——matlab格式,用于判断一个query的哪些图片是好的匹配(同一个人不同摄像头的图像)和不好的匹配(同一个人同一个摄像头的图像或非同一个人的图像)
5) “gt_bbox”——手工标注的bounding box,用于判断DPM检测的bounding box是不是一个好的box
命名规则:
以 0001_c1s1_000151_01.jpg 为例
1) 0001 表示每个人的标签编号,从0001到1501;
2) c1 表示第一个摄像头(camera1),共有6个摄像头;
3) s1 表示第一个录像片段(sequece1),每个摄像机都有数个录像段;
4) 000151 表示 c1s1 的第000151帧图片,视频帧率25fps;
5) 01 表示 c1s1_001051 这一帧上的第1个检测框,由于采用DPM检测器,对于每一帧上的行人可能会框出好几个bbox。00 表示手工标注框
干扰数据集:
在Market-1501数据集基础上增加了一个额外的干扰集。该数据集包含超过500,000个包围框,包含背景虚假警报以及不属于1,501个标注行人的行人。在实验中,除了Market-1501数据集外,我们还将报告拓展的Market-1501 + 500K数据集的结果。
二、DukeMTMC-reID
描述
原始数据集包含了85分钟的高分辨率视频,采集自8个不同的摄像头。并且提供了人工标注的bounding box.我们从视频中每120帧采样一张图像,得到了 36,411张图像。一共有1,404个人出现在大于两个摄像头下,有408个人只出现在一个摄像头下。所以我们随机采样了 702 个人作为训练集,702个人作为测试集。在测试集中,我们采样了每个ID的每个摄像头下的一张照片作为 查询图像(query)。剩下的图像加入测试的 搜索库(gallery),并且将之前的 408人作为干扰项,也加到 gallery中。
最终,DukeMTMC-reID 包含了 16,522张训练图片(来自702个人), 2,228个查询图像(来自另外的702个人),以及 17,661 张图像的搜索库(gallery)。并提供切割后的图像供下载。
目录结构
命名规则:
“0005_c2_f0046985.jpg”, “0005” 代表行人的身份. "c2"代表这张图像来自第二个摄像头. “f0046985” 代表来自摄像头2的 第46985帧.
三、MSMT17_V2
描述
MSMT17,即Multi-Scene Multi-Time,涵盖了多场景多时段。
数据集采用了安防在校园内的15个摄像头网络,其中包含12个户外摄像头和3个室内摄像头。为了采集原始监控视频,在一个月里选择了具有不同天气条件的4天。每天采集3个小时的视频,涵盖了早上、中午、下午三个时间段。因此,总共的原始视频时长为180小时。
基于Faster RCNN作为行人检测器,三位人工标注员用了两个月时间查看检测到的包围框和标注行人标签。最终,得到4101个行人的126441个包围框。
按照训练-测试为1:3的比例对数据集进行随机划分,而不是像其他数据集一样均等划分。这样做的目的是鼓励高效率的训练策略,由于在真实应用中标注数据的昂贵。
训练集包含1041个行人共32621个包围框,而测试集包括3060个行人共93820个包围框。对于测试集,11659个包围框被随机选出来作为query,而其它82161个包围框作为gallery.