DepthMap(1):D. Eigen (NIPS2014)

该论文提出了一种深度学习方法,包括全局粗糙网络和局部微调网络,用于预测深度图。全局网络提供场景的大致结构,局部网络则细化细节。采用尺度不变误差来衡量预测精度,减少由全局尺度引起的误差。实验在NYU Depth和KITTI数据集上进行。
摘要由CSDN通过智能技术生成

一,概述

  这篇论文提供了一个神经网络,带有两种信息:1.场景的全局结构。2.利用局部信息来精确。训练的误差源于深度信息和像素点位置之间的关系,属于对于像素的误差值。

二,方法

1,模型

  (1)全局粗糙神经网络:

  粗糙网络的任务是利用全局的场景视野预测除整个场景的深度图结构,上层layer是全连接层,包含了整个场景的信息。类似的,底层和中层通过最大池化操作来联合图像各个部分的信息。这样网络就可以集合对整个场景的全局理解来预测深度。在单幅图像中,这种对全局的理解需要高效地利用一些线索,比如隐含地点,物体的位置,房间调齐(room alignment),而局部地视野是无法注意到这些的。

  粗糙网络包含五个特征提取层,每层包含卷积和池化操作。后面跟着两个全连接层。最后的输出结果分辨率是输入的四分之一。

  Note that the spatial dimension of the output is larer than that of the topmost convolutional feature map.与其在将预测结果送往fine network前限制输出的feature map的尺寸和依赖hardcode来上采样,我们选择allow the top full layer to learn templates over the larger area(75 * 55 for NYU Depth)(也就是Coarse 7)这样要比直接从Coarse5上学习更好,本质上是让网络自己学习如何从feature中学习上采样(看图2)

  所有的hidden layers 都用relu作为激活函数,除了第七层,是线性函数,在全连接

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值