数据集:
1、PASCAL VOC challenge: voc挑战在2005年至2012年间展开,该数据集中有20个分类,该数据集包含11530张用于训练和验证的图像,以下是数据集中20个分类:人、鸟、猫、牛、狗、马、羊、飞机、自行车、船、巴士、汽车、摩托车、火车、瓶、椅子、餐桌、盆栽植物、沙发、电视/监视器,平均每个图像有2.4个目标。
下载链接:http://host.robots.ox.ac.uk/pascal/VOC/voc2012/
2、ImageNet数据集:ImageNet拥有分类、定位和检测任务评估的数据。与分类数据相似,定位任务有1000个类别。正确率是根据Top5检测结果计算出来的,对200个检测问题有470000个图像,平均每个图像有1.1个目标。
下载链接:http://image-net.org/download-images
3、COCO:MS coco的全称是Microsoft Common Objects in Context,起源于微软与2014年出资标注的Microsoft COCO数据集,与ImageNet竞赛一样,被视为是计算机视觉领域最受关注和权威的比赛之一。在ImageNet竞赛停办后,COCO竞赛就成为是当前目标识别、检测等领域的一个最权威、最重要的标杆,也是目前该领域在国际上唯一能汇集Google、微软、Facebook以及国内外众多顶尖院校和优秀创新企业共同参与的大赛。COCO数据集包含20万个图像,80个类别中有超过50万个目标标注,他是广泛公开的目标检测数据库,平均每个图像的目标数为7.2下载链接:https://cocodataset.org/#download
4、人体姿态估计数据集:
COCO Keypoints challenge:
https://cocodataset.org/#keypoints-2018
5、MPII Human Pose Dataset:
http://human-pose.mpi-inf.mpg.de/
6、VGG Pose Dataset:
https://www.robots.ox.ac.uk/~vgg/data/pose_evaluation/
7、CMU Panoptic Dataset:
http://domedb.perception.cs.cmu.edu/index.html
8、LSP:
地址:http://sam.johnson.io/research/lsp.html
标注方式:1右脚踝2右膝3右臀部
4左臀部5左膝6左脚踝
7右手腕8右肘9右肩
10左肩11左肘12左手腕
13脖子14头顶
介绍:该数据集包含 2000 张使用上面显示的标签从 Flickr 收集的主要是体育人士的姿势注释图像。这些图像已经过缩放,使得最突出的人的长度大约为 150 像素。每张图像都标注了 14 个关节位置。从以人为中心的观点一致地标记左右关节
数据集论文:
[1] Johnson M S . JOHNSON, EVERINGHAM: CLUSTERED MODELS FOR HUMAN POSE ESTIMATION 1 Clustered Pose and Nonlinear Appearance Models for Human Pose Estimation. 2013.
9、FLIC和FLIC-fill
https://bensapp.github.io/flic-dataset.html
我们从流行的好莱坞电影中自动收集了 5003 个图像数据集。这些图像是通过在 30 部电影的每十帧上运行最先进的人物检测器获得的。检测到的人(大约 20,000 名候选人)然后被发送到众包市场 Amazon Mechanical Turk 以获得真实标签。每张图像都由 5 名 Turker 注释,每张 0.01 美元,用于标记 10 个上身关节。在每个图像中采用 5 的中值标记以对异常值注释具有鲁棒性。最后,如果该人被遮挡或严重非正面,我们会手动拒绝图像。我们留出 20%(1016 张图像)的数据用于测试。
FLIC-fill数据集是我们从电影中获取并发送给Mechanical Turk进行手动注释的完整帧集。虽然5名土耳其人之间的注释几乎总是非常一致的,但事实证明,这些帧中的许多帧很难训练/测试我们的MODEC姿势模型:闭塞、非正面或只是简单的错误标记。我们鼓励雄心勃勃的研究人员尝试将这些数据作为学习异常值、使用遮挡或轮廓姿势建模的有趣来源!到目前为止,还没有公布关于它的任何结果。
关节点个数:9
[1] Sapp B , Taskar B . MODEC: Multimodal Decomposable Models for Human Pose Estimation[C]// IEEE. IEEE, 2013.