人工智能的不断发展需要大量的数据做支撑。使用开源数据集,可以对算法进行调优。景联文科技收集整理出了计算机视觉领域的七个优秀开源数据集供大家参考使用。
1.《PubFig Dataset数据集》
《PubFig Dataset数据集》是一个大型人脸数据集,该数据集由哥伦比亚大学于2009年发布,相关论文有《Attribute and Simile Classifiers for Face Verification》。
可用于人脸识别和身份鉴定,涵盖了互联网上 200个id58,797张图像,这些图像是在主体完全不受控制的情况下拍摄的,因此不同图像中表情、姿势、光照、场景、相机、成像条件和参数存在较大差异。
2.《MTFL人脸识别数据集》
《MTFL人脸识别数据集》数据集包含 12,995 张人脸图像,这些图像用五个面部标志:性别、微笑、戴眼镜和头部姿势的属性进行了标注。
3.《KITTI数据集》
《KITTI数据集》由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办,是目前国际上最大的自动驾驶场景下的计算机视觉算法评测数据集。
该数据集包含丰富多样的传感器数据,可用于对立体图像,光流,视觉测距,3D物体检测和3D跟踪等计算机视觉技术在车载环境下的性能。数据集中包含市区、乡村和高速公路等场景采集的真实图像数据,每张图像中最多达15辆车和30个行人,包含多种程度的遮挡与截断。整个数据集由389对立体图像和光流图,39.2 km视觉测距序列以及超过200k 3D标注物体的图像组成 ,以10Hz的频率采样及同步。总体上看,原始数据集被分类为“Road”, “City”, “Residential”,“Campus” 和 “Person”。对于3D物体检测,label细分为car, van, truck, pedestrian, pedestrian(sitting), cyclist, tram以及misc组成。
4.《Multimodal Language Analysis in the Wild_ CMU-MOSEI Dataset and Interpretable Dynamic Fusion Graph数据集》
该数据集发表于2018年,可用于多模态情感和情绪分析中。该数据集具有情感和情绪两个标签,情感从negative到positive一共有7个类别,情绪包含愤怒、开心、悲伤、惊讶、害怕和厌恶6个类别。
5.《ScanNetV2数据集》
《ScanNetV2数据集》是由斯坦福大学,普林斯顿大学和慕尼黑工大在CVPR18SH提出的室内场景数据集。《ScanNetV2数据集》是一个RGB-D视频数据集,可用于语义分割和目标检测任务。一共包含1513个采集场景数据,每个场景中点云数量都不同;共有21个类别对象,其中1201个场景用于训练,312个场景用于测试。数据集包含2D和3D数据,2D数据包括每一个场景下的N个帧2D标签和实例数据提供为png图像文件。彩色图像以8位RGB的形式提供jpg文件,深度图片为16位.png文件。每一帧包含的信息为color,depth,instance-label,label,and corresponding pose。3D数据则是一系列ply文件。
6.《Udacity数据集》
《Udacity数据集》是学城开放的自动驾驶课程中的自动驾驶汽车数据集,旨在打造一个开源的自动驾驶项目。
7.《Market-1501数据集》
《Market-1501数据集》是在清华大学校园中采集,它包括由6个摄像头拍摄到的1501个行人、32668个检测到的行人矩形框。每个行人至少由2个摄像头捕获到,并且在一个摄像头中可能具有多张图像。训练集有751人,包含12,936张图像,平均每个人有17.2张训练数据;测试集有750人,包含19,732 张图像,平均每个人有26.3张测试数据。其中3368张是人工绘制的查询图像的行人检测矩形框。
想了解更多数据集信息及获取方式,关注景联文科技
景联文科技|AI基础数据服务|数据采集|数据标注|假指纹制作|指纹防伪算法
助力人工智能技术加速数字经济相关产业质量变革,赋能传统产业智能化