转载自:https://blog.csdn.net/weixin_44330777/article/details/109456866
希望有包含建筑物的数据集这是我在找寻带框标注的三维点云建筑物数据集过程中发现的一些数据集,我是奔着找建筑物去的,还有很多关于室内场景和自动驾驶车前场景的数据集在此就不列出了。
欢迎补充和交流!!!
数据集
- 1. 点云分类(罗蒙诺索夫莫斯科国立大学)
- 2. Semantic3D
- 3. Robotic 3D Scan Repository
- 4. KITTI
- 5. Beyond PASCAL: A Benchmark for 3D Object Detection in the Wild
- 6. Oakland 3-D Point Cloud Dataset(奥克兰 )
- 8. Generic 3D Representation via Pose Estimation and Matching
- 9. 武大遥感数据
- 13. INRIA aerial image dataset
- 14. 悉尼城市建筑
- 15. isprs点云数据
- 16. 中科院自动化所数据集
- 20. SUN-RGBD数据集
- 21. ModelNet
- 22. NYU Depth V2 dataset
- 23. DTU dataset
- 24. 普林斯度视觉和机器人实验室数据集
1. 点云分类(罗蒙诺索夫莫斯科国立大学)
链接:点云分类
2. Semantic3D
大规模点云分类基准,它提供了一个带有大标签的自然场景的3D点云数据集,总计超过40亿个点,8个类别标签。并且还涵盖了多种多样的城市场景。
该数据集是一个大型户外数据集,使用地面激光扫描仪获得,总共包含 40亿个点。数据集包含了各种城市和乡村场景,如农场,市政厅,运动场,城堡和广场。该数据集包含 15 个训练数据集和 15 个测试数据集,另外还包括 4 个缩减了的测试数据集。数据集中的点都含有 RGB 和强度信息,并被标记为 8 个语义类别。
8个类别标签的分类基准,即 1:人造地形; 2:自然地形; 3:高植被; 4:低植被; 5:建筑物; 6:硬景观; 7:扫描人工制品,8:汽车 。附加标签 0:未标记点,标记没有地面真值的点
链接:Semantic3D
3. Robotic 3D Scan Repository
包含大量的Riegl和Velodyne雷达数据,可能更适合slam研究
Authors Johannes Schauer, Andreas Nüchter from the University of Würzburg, Germany
Date 2016-10-27
Location Würzburg marketplace (geo:49.79445,9.92928)
Scanner Riegl VZ-400
#scans 6
#points 86585411
Datatype X,Y,Z (lefthanded) and reflectance in uosr format
Download wue_city.tar.xz
MD5 9b38cad10038ee4f3abbdd7b8431fa27
Filesize 1187 MiB (5117 MiB unpacked)
README README.wue_city
链接: Robotic 3D Scan Repository
4. KITTI
这个数据集来自德国卡尔斯鲁厄理工学院的一个项目,其中包含了利用KIT的无人车平台采集的大量城市环境的点云数据集(KITTI),这个数据集不仅有雷达、图像、GPS、INS的数据,而且有经过人工标记的分割跟踪结果,可以用来客观的评价大范围三维建模和精细分类的效果和性能。
3D对象检测基准由7481个训练图像和7518个测试图像以及相应的点云组成,包括总共80256个带标签的对象,单声道和立体相机数据,包括校准、测程法等等。
链接: The KITTI Vision Benchmark Suite
5. Beyond PASCAL: A Benchmark for 3D Object Detection in the Wild
PASCAL3D +数据集,它是用于3D对象检测和姿态估计的新颖且具有挑战性的数据集。 PASCAL3D +通过3D注释增强了PASCAL VOC 2012 [12]的12个刚性类别。此外,从ImageNet 为每个类别添加了更多图像。与现有的3D数据集相比,PASCAL3D +图像具有更大的可变性,并且每个类别平均有3,000多个对象实例。该数据集将为研究3D检测和姿态估计提供丰富的测试平台,并将有助于显着推动这一领域的研究。在新的数据集上提供了DPM 的变化结果,用于在不同情况下进行对象检测和视点估计。
物体检测和姿态估计的基准(10个类别,每个类别有10个对象实例)
链接: A Benchmark for 3D Object Detection in the Wild
6. Oakland 3-D Point Cloud Dataset(奥克兰 )
这个数据库的采集地点是在美国卡耐基梅隆大学周围,数据采集使用Navlab11,配备侧视SICK LMS激光扫描仪,用于推扫。 其中包含了完整数据集、测试集、训练集和验证集。
链接:Oakland 3-D Point Cloud Dataset
8. Generic 3D Representation via Pose Estimation and Matching
该数据集涵盖纽约,芝加哥,华盛顿,拉斯维加斯,佛罗伦萨,阿姆斯特丹,旧金山和巴黎的市中心和周边地区。包含这些城市的3D模型以及街景图像和元数据,这些模型已进行地理注册并手动生成。
链接: Generic 3D Representation via Pose Estimation and Matching
9. 武大遥感数据
WHU-RS19 Dataset 是一个遥感影像数据集,其包含 19 个类别的场景影像共计 1005 张,其中每个类别有 50 张。WHU-RS19是从谷歌卫星影像上获取19类遥感影像,可用于场景分类和检索。
该数据集由武汉大学于 2011 年发布,相关论文有《Satellite Image Classification via Two-layer Sparse Coding with Biased Image Representation》。
建议的基准数据集包括 115 次扫描,共收集了 17.4 亿多个 3D 点,这些点来自 11 个不同的环境(即地铁站、高速铁路站台、山区、森林、公园、校园、住宅、河岸、文物建筑、地下挖掘和隧道),这里仅取文物与住宅点云。
暂无有效链接,需要可向武大申请使用
13. INRIA aerial image dataset
Inria是法国国家信息与自动化研究所简称,该机构拥有大量数据库,其中此数据库是一个城市建筑物检测的数据库,标记只有building, not building两种,且是像素级别,用于语义分割。训练集和数据集采集自不同的城市遥感图像。
14. 悉尼城市建筑
这个数据集包含用Velodyne HDL-64E LIDAR扫描的各种常见城市道路对象,收集于澳大利亚悉尼CBD。含有631个单独的扫描物体,包括车辆、行人、广告标志和树木等。可以用来测试匹配和分类算法。
Sydney Urban Objects Dataset 下面是数据格式:
链接:Sydney Urban Objects Dataset
15. isprs点云数据
ISPRS官方提供了航空、无人机、倾斜影像数据进行密集匹配和三维重建,以下给出相应的数据获取地址。
航空数据
一共提供了两组航空实验数据,一组是高楼林立的加拿大Toronto地区,另一组是半农村地区的德国Vaihingen地区。两组数据的航向重叠度为60%,旁向重叠度为30%。
链接: 航空数据
无人机数据
链接:无人机数据
倾斜数据
链接:倾斜数据
16. 中科院自动化所数据集
国内的中科院自动化研究所提供了多组近景三维重建的数据集。
链接: 中科院数据集
20. SUN-RGBD数据集
在这里插入图片描述
SUN-RGBD数据集由四种不同的传感器获取,分别为kinect1,kinect2,xction,
SUNRGBD V1包含10335张RGBD图片,19个类的对象。这些图片来自数据集NYU depth v2(既NYUDv2),B3DO,SUN3D,使用SUNRGBD此数据集的时候不要忘了引用其包含的数据集的相关论文文献。
链接:SUN-RGBD数据集
21. ModelNet
ModelNet总共有662中目标分类,127915个CAD,以及十类标记过方向朝向的数据。
其中包含了三个子集:
ModelNet10为十个标记朝向的子集数据;
ModelNet40为40个类别的三维模型;
Aligned40:40类标记的三维模型;
数据格式:.OFF
数据特点:结构简单,不适合做点云数据集,模型结构更多通过边来体现
链接:ModelNet
22. NYU Depth V2 dataset
关于RGBD 图像场景理解的数据库
提供1449张深度图片和他们的密集2d点类标注
23. DTU dataset
关于3D场景的数据集,有124个场景,每场景有49/64个位置的RGB图像和结构光标注
在这里插入图片描述
链接:DTU dataset
24. 普林斯度视觉和机器人实验室数据集
这一实验室提供17个三维视觉的数据集,除了上面提到的ShapeNet和SUN3D外,还有:
SUN RGB-D数据集,包含了室内场景分类、语义分割、房间布置和物体朝向等标注,其中有 10,000 张RGB-D 图像, 标注包含 146,617 2D 个多边形和 58,657 3D 个框。
SUN GC数据集包含了45k个手工创造的三维室内场景,包含了深度信息和每个物体的语义标签。
此外还有Matterport3D室内rgbd数据集
这是一个大型RGB-D数据集,包含来自90个建筑规模场景的194,400个RGB-D图像的10,800个全景。 批注提供了表面重建,相机姿势以及2D和3D语义分割。 整个建筑物的精确全局对齐和全面,多样的全景视图集可实现各种有监督和自我监督的计算机视觉任务,包括关键点匹配,视图重叠预测,根据颜色进行的正常预测,语义分割和场景分类。
链接:Matterport3D
链接:普林斯度视觉和机器人实验室数据集