UnOS: Unified Unsupervised Optical-flow and Stereo-depth Estimation by Watching Videos论文解读

UnOS框架通过使用CNN无监督地联合训练光学流和深度,利用视频中的连续图像对,通过三个并行网络估计深度图、相机运动和光学流。文章介绍了如何通过刚性场景的几何一致性来估计光学流和深度,并提出RDVO模块增强光流与刚性光流的几何一致性。该方法应用于自动驾驶领域的视觉估计。
摘要由CSDN通过智能技术生成

UnOS: Unified Unsupervised Optical-flow and Stereo-depth Estimation by论文解读(个人理解)

摘要

本文提出了一个UNOS的框架,即通过光流和深度在刚性场景假设下的内在几何一致性,由CNN来无监督地联合训练光流和深度。它是由来自视频中的连续的图像对,再由UNOS中的三个平行的网络(Stereo Net、Motion Net and Flow Net)来分别估计出深度图、相机自我运动和光流。再由相机的自我运动和深度图就可以计算出刚性光流,然后再与从Flow Net中估计出来的光流作比较;就可以产生满足刚性场景假设的像素。因为要加强在刚性区域内光流和刚性光流之间的几何一致性,所以导出了一个rigid-aware direct visual odometry( RDVO)模块。当然在UNOS的学习中,也考虑到了刚性和遮挡感知流一致性。

介绍:

本文主要是由无监督的方法来联合学习光流和深度,通过它们之间的几何一致性来训练参数。而许多其他的论文都是分开学习和训练光流和深度的。UNOS的大体结构框架如下图所示:

在这里插入图片描述
在训练期间,会从视频中获取连续的两对图像对Ls、Rs和Lt、Rt。UNOS将会从Motion Net 、Stereo Net和Flow Net中估计出深度图Dt、相机的自我运动Tt_s和光流Ft_s。然后RDVO将会在Moti

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值