深度估计(二)

论文:Monocular Depth Estimation Using Laplacian Pyramid-Based Depth Residuals(基于拉普拉斯金字塔深度残差的单目深度估计)

第四招:特征融合

在这里插入图片描述
如图,经过前三招以后,得到了输入图像的各种特征图,接下来就是对得到这些特征图就是融合。
R5怎么来的呢?
它是由S/16的特征图经过ASPP以后,再进行一系列的卷机得到。其中最后一次卷积时输出的特征图个数为1,则就生成了R5,即输出一个含有深度信息的特征图。
所以,简单来说,R5是由原始图像经过一系列的卷积,再加上ASPP以后得到的,所以得到的特征信息就比较简单(比较片面),因为此时还没有用到差异信息,以及其他阶段的特征信息,比如S/8、S/4和S/2。

R4怎么来的呢?
在这里插入图片描述
如图,由四个部分拼接而成。
第一部分:由S/16特征图的ASPP模块上采样得到,即Upconv block,即蓝色块。而红色块则是由S/8特征图经过卷积得到的。
第二部分:差异L4,它作用于两处,第一处和第一部分、第三部分拼接,形成第四部分;第二处是和第四部分拼接形成R4
第三部分:由R5经过上采样得到
第四部分:由第一部分、第二部分和第三部分经过拼接以后,再卷积得到。

R4相对于R5来说,所蕴含的信息就更加的丰富。因为它既包括了差异信息L4,又有了本身S/8特征图信息(第一部分中的红色块)、S/16特征图信息(第一部分中的蓝色块)、R5的信息(第三部分)。所以,简单说,R4就是把之前的信息进行汇总得到的结果。

同理,继续做拼接、上采样就能得到R3、R2和R1

第五招:Coarse-to-Fine

所研究的目标就是D5、D4、D3、D2和D1怎么得到的。
在这里插入图片描述
得到的过程其实也很简单,D5就是R5
D4是对D5进行上采样,然后再和R4拼接形成。
D3是对D4进行上采样,然后再和R3拼接形成。
D2是对D3进行上采样,然后再和R2拼接形成。
D1是对D2进行上采样,然后再和R1拼接形成。
过程很简单,但是这里蕴含的思想却很有意思,即Coarse-to-Fine。即由粗到细,或者说是由简约到精细。

什么意思呢?
先看D5,它就是R5。而R5又是由原始特征图经过一系列卷积卷积,最后输出得到的,所以R5特征图信息很少,或者说很片面。这个片面就是说它没有借鉴或者融合其他特征图的信息,比如差异的信息,或者其他倍数(S/8、S/4、S/2)特征图的信息。虽然R5经过输出以后,它也能反应图片的深度信息,但是由于它片面了,信息少了,所以导致得到的结果就很“粗”。

而在第四招,即特征融合的相关操作,就是不断的去叠加各种信息,从而为最后得到的R1做铺垫,这其实就是不断“精细”的过程。这也就是Coarse-to-Fine的思想。

第六招:权重参数预处理

在这里插入图片描述
由于Relu激活函数的特性,会导致网络在学习的过程中,它的参数会被Relu激活函数“杀死”很多。所以作者提出:在做权重参数初始化的时候,给权重参数做预处理,这个预处理的目的就是为了让权重参数值的分布更均匀。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
单目深度估计是指通过一张单独的图像来估计场景中物体的深度信息。传统的单目深度估计方法并不理想,因为从单张图片中获取具体的深度相当于从维图像推测出三维空间,这是一个非常复杂的函数。即使人眼在两只眼睛来定位自然世界的物体的情况下也存在问题,更何况使用单张照片。因此,人们更加关注研究立体视觉(Stereo Vision),即从多张图片中得到深度信息。通过比较多张图片之间的视角变化,可以计算出图片之间的视差(disparity),从而得到深度信息。\[3\] 然而,随着深度学习的发展,利用深度学习方法进行单目深度估计也取得了一定的进展。Cao等人提出将单目深度估计看作是一个分类问题,将连续的深度离散化,对深度范围进行分类和排序。这种方法相比于传统的回归方法更加简化了问题,同时也取得了较好的效果。\[1\] 单目深度估计在许多应用场景中都有重要的作用。除了前面提到的应用场景,如3D重建、障碍物检测和SLAM等,单目深度估计还可以应用于虚拟现实、增强现实、自动驾驶等领域。深度估计作为上游任务,为这些下游任务提供了重要的深度信息支持。\[2\]因此,单目深度估计计算机视觉领域具有重要的研究和应用价值。 #### 引用[.reference_title] - *1* [单目深度估计梳理(1) -- 有监督学习之单任务篇](https://blog.csdn.net/qq_17027283/article/details/129351192)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [单目深度估计--深度学习篇](https://blog.csdn.net/weixin_43702653/article/details/123831009)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值