原文:Unsupervised Learning of Depth and Ego-Motion from Video
实质:用单张图片推理场景结构:SfMLearner
相关作用:
针对端对端视觉里程计 : 今年CVPR的 SfM-Learner。文章的核心思想是利用photometric consistency原理来估计每一帧的depth和pose。photometric consistency就是对于同一个物体的点,在不同两帧图像上投影点,图像灰度应该是一样的。各位回忆一下直接法SLAM的经典:LSD-SLAM (LSD-SLAM: Large-Scale Direct Monocular SLAM),有没有感觉这篇文章的核心思路和LSD-SLAM如出一辙?本质都是优化photometric error。 来看看SfM-Learner的Loss(最终的Loss在此基础上做了优化),出自知乎。
他山之石:1. 用单张图片推理场景结构:UC Berkeley提出3D景深联合学习方法
2. UC伯克利联合谷歌推出无监督深度学习框架,模仿人眼实现视频中的自我运动认知
3. 专栏 | CVPR 2017 论文解读:基于视频的无监督深度和车辆运动估计
题目:基于视频的无监督深度和车辆运动估计