- 博客(5)
- 资源 (16)
- 收藏
- 关注
原创 《Boosting Monocular Depth Estimation Models to High-Resolution ...》论文笔记
参考代码:BoostingMonocularDepth论文:Boosting Monocular Depth Estimation Models to High-Resolution via Content-Adaptive Multi-Resolution Merging1. 概述导读:这篇文章提出了一种使用现有深度估计模型(MiDas)生成具有更高分辨率/更多细节表现深度图的方法(同时保持高分辨率和深度一致性是现存的挑战)。文章探究了输入的图像分辨率/图像中的结构信息是如何影响最后的深度估计的,
2021-06-14 23:48:04 2285 5
原创 《S2R-DepthNet:Learning a Generalizable Depth-specific Structural Representation》论文笔记
参考代码:官方:S2R-DepthNet,但是2021-0607通过该入口无法进入了,后续再观察。未知版本:S2R-DepthNet1. 概述导读:这篇文章经过分析人对场景的3D感知,发现场景中的空间结构信息在深度感知中扮演了至关重要的作用。因而文章首先学习得到一个针对深度的结构表达,这个表达中抓住了深度估计中的关键信息,排除一些数据中无关的风格信息。这样使得深度网络着力关注场景的结构信息,使得即使在合成数据场景训练的模型也具有良好的泛化能力。文章方法的组成可以划分为下面的3个部分:1)用于
2021-06-08 00:47:18 1875 8
原创 《Structure-Guided Ranking Loss for Single Image Depth Prediction》论文笔记
参考代码:Structure-Guided-Ranking-Loss1. 概述导读:在这篇文章中提出了一种在监督深度估计方法中的损失函数。该方法是属于pair-wise ranking loss族的,文章通过利用目标的分割结果提出了一些新的采样策略,也就是低层次的边缘采样与目标实例级别的采样。从而极大增强了损失函数的约束能力,提升了最后深度图预测在边缘部分的锐化成都,以及目标内部的一致性内在属性。文章将之前一些方法的损失函数进行比较,其结果在边缘与目标内部均得到了不错的提升,见下图所示:理解下
2021-06-07 01:19:35 1172
原创 《Towards Robust Monocular Depth Estimation:Mixing Datasets for Zero-shot Cross-dataset Transfer》论文笔记
参考代码:MiDaS1. 概述导读:这篇文章提出了一种监督的深度估计方法,其中使用一些很有价值的策略使得最后深度估计的结果具有较大提升。具体来讲文章的策略可以归纳为:1)使用多个深度数据集(各自拥有不同的scale和shift属性)加入进行训练,增大数据量与实现场景的互补;2)提出了一种scale-shift invariable的loss用于去监督深度的回归过程,从而使得可以更加有效使用现有数据;3)采用从3D电影中进行采样的方式扩充数据集,从而进一步增加数据量;4)使用带有原则属性的多目标
2021-06-06 23:49:28 2628
原创 深度估计 ManyDepth 笔记
参考代码:manydepth论文名称:The Temporal Opportunist: Self-Supervised Multi-Frame Monocular Depth1. 概述导读:这篇文章借鉴了多视图深度估计中的cost-volume方法(参考:cost-volume概念),并将其引入到单目的自监督深度估计网络中。这里将原来的双目图像换成了一对前后帧图像,从而去构建cost-volume克服之前的单目深度估计中的scale ambiguity问题。此外,为了克服单目情况下cost-vol
2021-06-01 01:59:58 4958 10
Opencv调试看图插件
2016-10-27
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人