点击上方“计算机视觉life”,选择“星标”
快速获得最新干货
杭电-清华联合培养博士生朱尊杰等人开源了他们论文“Real-time Indoor Scene Reconstruction with RGBD and Inertia Input”中的数据集。该论文获得了2019 IEEE International Conference on Multimedia and Expo (ICME,CCF B类会议)的最佳学生论文奖。
重点来了,目前作者开源了他们的RGBD+IMU数据集:数据集传送门:
https://github.com/zhuzunjie17/FastFusion
背景介绍
相机运动估计是三维场景重建中的关键技术。之前的工作均假设相机是缓慢运动的,从而局限了它们在真实场景下的应用。我们提出了一个端到端的三维重建系统,主要利用彩色图像,深度图像以及惯性测量单元的信息实现快速相机运动下的鲁棒重建。我们以扩展卡尔曼滤波为框架来融合这三类输入,并引入迭代的方法来联合优化特征配准,相机姿态估计以及场景几何。我们也提出来一个新颖的考虑几何信息的区块变形技术,从而适应图像层的特征表面变化,实现了快速相机运动下更加准确的特征匹配。实验结果表明我们的区块变形技术提高了特征跟踪的精度,我们的三维重建系统在快速相机运动下优于现有技术。
下面是论文demo:
朱博士之前在计算机视觉life做的关于上述工作的公开课回放视频见:
公开课视频回放 | 基于RGBD和IMU的实时室内SLAM及三维重建</