最近在看论文时看到一篇关于法向量预测的论文,其中训练集所用的是NYU Depth数据集。然而网上NYU Depth相关的资料极少,对于如何将dataset转换为输入数据几乎没有相关资料,在网上逛了一大圈后,总算找到了一些零碎的步骤,在这里做个归纳,方便后面需要相关资料的朋友参考。
一、什么是NYU Depth数据集
地址:http://cs.nyu.edu/~silberman/datasets/nyu_depth_v2.html
此地址为v2版本数据集,点击首页还可浏览v1版本数据集
1、声明
如果在论文中使用了此数据集,务必引用相关论文《Indoor Segmentation and Support Inference from RGBD Images》
2、概述
NYU-Depth V2 data set其实是视频的连续帧组成的,这些视频是Kinect的RGB摄像机和深度摄像机同步拍摄的室内场景。比如说用Kinect拍摄一间房内场景的video(用RGB摄像机和深度摄像机同步拍摄),然后把video中的每一帧图片提取出来,组成数据集。
3、内容
(1)特征
- 1449 组密集设置标签的RGB和Depth图像对(用RGB摄像机和深度摄像机同步拍摄)
- 来自3个城市的464 个场景
- 407,024幅无标签的帧
(2)