#每天一篇论文#239/365 单目视频无监督尺度约束的深度和ego-motion学习

Unsupervised Scale-consistent Depth and Ego-motion Learning from Monocular Video

来自南开程明明实验室

摘要

最近的工作表明,基于CNN网络的深度和自我运动估计可以使用未标记的单目视频学习。然而,它的性能是建立在几何图像重建有限的移动物体了静态场景假设。更重要的是,由于缺乏适当的约束,网络输出规模不一致的结果在不同的样本,即,自我运动网络不能提供完整的相机轨迹在长视频序列,因为每帧尺度模糊。本文提出了这些挑战,提出了几何一致性损失的尺度一致的预测和诱导自我发现的面具来处理移动物体和遮挡。由于我们不利用多任务学习,如最近的论文,我们的框架更简单,更有效。综合评价结果表明,我们的深度估计器在KITTI数据集上达到了最先进的性能。此外,我们表明,我们的自我运动网络能够预测全球范围内一致的摄像机轨迹长视频序列,所得到的视觉测径精度与最近的模型训练,使用立体视频。据我们所知,这是第一次表明,使用未标记的单目视频训练的深网络可以在长视频序列上预测全局范围内一致的摄像机轨迹。

贡献

我们提出了一个几何一致性约束,以加强规模的一致性的深度和自我运动网络,获得全局范围内一致的自我运动估计。
•通过上述几何一致性约束,我们提出了一个动态场景和遮挡的自发现mask。与其他方法相比,我们提出的方法不需要额外的光流或语义分割网络,这使得学习框架更简单和更有效。
所提出的深度估计器在KITTI和MaM3D数据集上达到了最先进的性能,并且与使用立体视频训练的最先进的模型相比,所提出的自我运动预测器显示了竞争的视觉测径结果。

方法

本文主要就原来单目深度估计得基础上加入了尺度约束,几何约束,尺度约束
在这里插入图片描述
在位姿估计中通过投影光流,去除在动态环境中运动物体,提高project loss
在这里插入图片描述

三种损失函数

在这里插入图片描述

运动边界和遮挡处理

在下一帧中去除运动出边界的图像,在这当中去除遮挡的点
在这里插入图片描述

实验

在这里插入图片描述

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值