《Unsupervised Learning of Depth and Ego-Motion from Video》读书笔记

原文:Unsupervised Learning of Depth and Ego-Motion from Video

实质:用单张图片推理场景结构:SfMLearner

相关作用:

针对端对端视觉里程计 : 今年CVPR的 SfM-Learner。文章的核心思想是利用photometric consistency原理来估计每一帧的depth和pose。photometric consistency就是对于同一个物体的点,在不同两帧图像上投影点,图像灰度应该是一样的。各位回忆一下直接法SLAM的经典:LSD-SLAM (LSD-SLAM: Large-Scale Direct Monocular SLAM),有没有感觉这篇文章的核心思路和LSD-SLAM如出一辙?本质都是优化photometric error。 来看看SfM-Learner的Loss(最终的Loss在此基础上做了优化),出自知乎

他山之石:1. 用单张图片推理场景结构:UC Berkeley提出3D景深联合学习方法
2. UC伯克利联合谷歌推出无监督深度学习框架,模仿人眼实现视频中的自我运动认知
3. 专栏 | CVPR 2017 论文解读:基于视频的无监督深度和车辆运动估计

题目:基于视频的无监督深度和车辆运动估计

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值