1. Tum数据集 这个大家用的人都知道,RGB-D数据集,有很多个sequence,自带Ground-truth轨迹与测量误差的脚本(Python写的,还有一些有用的函数)。 有一些很简单(xyz, 360系列),但也有的很难(各个slam场景)。 由于它的目标场景是机器人救援(虽然看不太出来),场景都比较空旷,许多时候kinect的深度只够看一个地板。对视觉算法可靠性的要求还是蛮高的。 网址: http://vision.in.tum.de/data/datasets/rgbd-dataset
2. MRPT 坛友SLAM_xian已经给出了地址:见此贴 含有多种传感器数据,包括双目,laser等等。 MRPT本身是个机器人用的开发包(然而我还是没用过),有兴趣的同学可以尝试。
3. Kitti 坛友zhengshunkai给出了地址:见此贴 著名的室外数据集,双目,有真值。场景很大,数据量也很大(所以在我这种流量限制的地方用不起……)。如果你做室外的请务必尝试一下此数据集。就算你不用审稿人也会让你用的。
4. Oxford数据集 含有一些Fabmap相关的数据集,用来验证闭环检测的算法。室外场景。它提供了ground-truth闭环(据说是手工标的,真是有耐心啊)。 网址:http://www.robots.ox.ac.uk/~mobile/wikisite/pmwiki/pmwiki.php?n=Main.Datasets#userconsent#
5. ICL-NUIM数据集 (又)是帝国理工弄出来的,RGB-D数据集,室内向。提供ground-truth和odometry。 网址:http://www.doc.ic.ac.uk/%7Eahanda/VaFRIC/iclnuim.html
6. NYUV2 数据集 一个带有语义标签的RGB-D数据集,原本是用来做识别的,也可以用来做SLAM。特点是有一个训练集(1400+手工标记的图像,好像是雇人弄的),以前一大堆video sequence。 网址:http://cs.nyu.edu/silberman/datasets/nyu_depth_v2.html (似乎访问有问题,不知道会不会修复)
7. KOS的3d scan数据集 一个激光扫描的数据集。 网址:http://kos.informatik.uni-osnabrueck.de/3Dscans/ --------------------- 本文来自 倔强不倒翁 的CSDN 博客 ,全文地址请点击:https://blog.csdn.net/x_r_su/article/details/53507340?utm_source=copy