单目深度估计论文(6)— Unsupervised learning of depth and ego-motion from video (CVPR 2017)

利用视频进行无监督单目深度估计
[1] Zhou T, Brown M, Snavely N, et al. Unsupervised learning of depth and ego-motion from video[C]. Proceedings of the IEEE conference on computer vision and pattern recognition. 2017: 1851-1858.

思路:
下图可以看到整个pipeline。整体架构有两部分:深度网络(depth cnn)和位姿网络(pose cnn)。
1)Depth CNN(输入是单目视角的视频某帧)
2)Pose CNN(视频连续帧的不同视角)
3)Loss (将当前帧图像结合预测的深度图以及帧间转移投影到临近帧上,计算像素误差作为训练的 loss,对两个网络进行联合训练)
在这里插入图片描述
取中间一帧的图像作为 Depth CNN 的输入,输出此帧的预测深度图;取前后相邻帧作为 Pose CNN 的输入,输出对相机运动的位姿预测;将预测的深度图映射到运动轨迹得到对原中间帧的预测图,将预测帧与原帧的差别作为损失函数。无监督地估计深度的网络采用和DispNet相似的架构,输入是某一单帧It,输出其对应的深度图估计pose的网络的输入是一张目标图像,以及其(时间上)附近的图像序列Is(s=t-1,t+1,t-2,t+2,…),输出目标图像到附近的这些图像的位姿(欧拉角和位移(pose共6个自由度))。
利用以上得到的深度和位姿,将图像It上的图像块warp到Is,并通过卷积网络来最小化It与Is的总的光度误差,得到最终的pose。
在这里插入图片描述

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值