论文链接:http://openaccess.thecvf.com/content_cvpr_2018/papers/Atapour-Abarghouei_Real-Time_Monocular_Depth_CVPR_2018_paper.pdf
Abstract
基于学习的方法预测单目的深度这些年逐渐的呈上升趋势。然而这些方法要么依赖于大量已标定的深度数据,或者预测disparity作为一个中间步骤会有模糊或者其他人为现象。 利用pixel-perfect的合成数据训练一个深度预测模型能够解决这些问题但是会引入domian bias的问题。这就是为什么不能将基于合成数据训的模型运用到实际情况。 随着图像风格迁移的发展以及它和领域适应(domain adaptation)间的联系,我们利用的风格迁移和对抗训练经过在大量生成数据上训练模型,之后从单张真实世界的彩色图片预测图片每个像素点的深度。