第一个「视觉惯性里程计+深度图」 的数据集 && 用VIO实现的无监督深度图补全方法

第一个提出 「视觉惯性里程计+深度图」 的数据集 “Visual Odometry with Inertial and Depth” (VOID) dataset论文名称 《Unsupervised Depth Completion from Visual Inertial Odometry》期刊:ICRA2020作者:加州大学洛杉矶分校本文代码:https://github.com/alexklwong/unsupervised-depth-completion-visual-inertial
摘要由CSDN通过智能技术生成

第一个提出 「视觉惯性里程计+深度图」 的数据集 “Visual Odometry with Inertial and Depth” (VOID) dataset

论文名称 《Unsupervised Depth Completion from Visual Inertial Odometry》

期刊:ICRA2020

作者:加州大学洛杉矶分校

本文代码:https://github.com/alexklwong/unsupervised-depth-completion-visual-inertial-odometry

本文制作的首个VOID数据集:https://github.com/alexklwong/void-dataset

本文使用的VIO方法:https://github.com/ucla-vision/xivo

本文描述了一种通过摄像头运动和视觉惯性里程计估计的稀疏深度推断密集深度的方法。不同于来自激光雷达或结构光传感器的产生的点云,我们只有几百到几千的点,不足以了解场景的拓扑结构。我们的方法首先构建了场景的分段平面的框架,然后使用这些框架、图像和稀疏点推断密集深度。我们使用一种预测的交叉模态标准,类似于 “自我监督”,测量不同时间的光度一致性、前后姿态一致性以及与稀疏点云的几何兼容性。

本文提出了第一个视觉惯性 + 深度数据集,我们希望这将有助于进一步探索视觉和惯性传感器的互补优势。为了将我们的方法与之前的工作进行比较,我们采用了无监督的 KITTI 深度完成基准,在该基准中我们实现了最优的性能。

本文的工作实现了如下图所示功能:左上为输入RGB图像,左下为来自VIO的轨迹和稀疏重建点。右上为本文方法得到的稠密点云结果

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值