Depth Anything | 致敬SAM,港大&字节提出用于任意图像的深度估计大模型,已开源!

本文提出了一种名为DepthAnything的方法,通过构建大规模无标注数据集和利用数据增广,提升单目深度估计的性能。作者通过设计数据引擎和引入辅助监督,使模型在零样本迁移学习下达到新的SOTA水平,展示了深度引导ControlNet的优势。
摘要由CSDN通过智能技术生成

本文首发于AIWalker
欢迎关注AIWalker,近距离接触底层视觉与基础AI技术

https://arxiv.org/abs/2401.10891
https://github.com/LiheYoung/Depth-Anything
https://depth-anything.github.io/

本文提出一种用于单目深度估计(Monocular Depth Estimation, MDE)的高度实用方案Depth Anything「致敬Segment Anything」,它旨在构建一种可以处理任务环境下任意图像的简单且强力的基础深度模型。为此,作者从三个维度进行了探索:

  • 数据集维度,设计了一种数据引擎用于数据收集与自动标注,构建了~62M的大规模无标注数据,这极大程度提升了数据覆盖率、降低泛化误差;
  • 通过利用数据增广工具构建了一种更具挑战性的优化目标,促使模型主动探索额外的视觉知识,进而提升特征鲁棒性;
  • 设计了一种辅助监督信息以迫使模型从预训练Encoder中继承丰富语义先验信息。

作者在六个公开数据集与随机拍摄图片上评估了模型的zero-shot能力;通过度量深度信息微调达成新的SOTA;更优的深度模型进而引申出更优的深度引导ControlNet。

本文方案

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

上图给出了所提方案架构图,本文采用有标签与无标签图像训练更优的单目深度估计。假设 D l = { ( x i , d i ) } i = 1 M , D u = { ( u i ) } i = 1 N \mathcal{D}^l = \{(x_i,d_i)\}_{i=1}^M, \mathcal{D}^u = \{(u_i)\}_{i=1}^N Dl={(xi,di)}i=1M,Du={(ui)}i=1N分别表示有标签与无标签数据集。

  • 首先,我们基于数据集 D l \mathcal{D}^l Dl学习一个老师模型T;
  • 然后,我们利用T为数据集 D u \mathcal{D}^u Du赋予伪标签;
  • 最后,我们基于两个数据训练一个学生模型S。

大规模数据集

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

上表给出了本文所构建的有标签与无标签数据集,相比于MiDaS v3.1,该方案使用的有标签数据集更少(6 vs 12)。

  • 未实用NYUv2与KITTI以确保zero-shot评估;
  • Movies与WSVD不再可获取;
  • 某些数据质量比较差,如RedWeb;

尽管实用了更少的有标签数据,但更易获取且多样性的无标签数据足以补偿数据覆盖率并极大提升模型的泛化能力与鲁棒性。此外,为进一步增强老师模型,作者采用DINOv2预训练权值进行初始化

释放无标签数据的能量

受益于互联网的发展,我们可以比较容易的构建一个多样性的大规模无标签数据集,同时也可以借助于预训练MDE模型为这些无标签图像生成稠密深度图。这要比立体匹配、SfM重建更方便且高效。

给定预训练MDE老师模型T,我们可以将无标签数据集 D u \mathcal{D}^u Du转换为伪标签数据集 D ^ u \hat{\mathcal{D}}^u D^u:

D ^ u = { ( u i , T ( u i ) ) ∣ u i ∈ D u } i = 1 N \hat{\mathcal{D}}^u = \{(u_i, T(u_i)) | u_i \in \mathcal{D}^u \}_{i=1}^N D^u={(ui,T(ui))uiDu}i=1N

基于组合数据 D l ∪ D ^ u \mathcal{D}^l \cup \hat{\mathcal{D}}^u DlD^u,我们就可以训练学生模型S咯~但是,不幸的是:通过上述自训练方案,我们难以取得性能改善

作者猜想:当有足够的有标签数据后,从无标签数据中获取的额外知识相当受限。针对此,作者为学生模型制定了更难的优化目标以从额外无标签数据中学习额外的视觉知识

在训练过程中,作者为无标签数据注入强扰动,这种处理有助于学生模型主动探寻额外的视觉知识并从中学习不变性表征。在具体实现方面,主要有以下两种扰动:

  • 强色彩失真,包含颜色抖动、高斯模糊;
  • 强空域畸变,如CutMix。

尽管上述操作比较简单,但它们有助于大规模无标签数据大幅改善有标签图像的基线

语义辅助感知

尽管已有一些研究通过语义分割任务辅助改善深度估计模型性能,但不幸的是:经过尝试,RAM+GroundDINO+HQ-SAM组合方案无法进一步提升原始MDE模型的性能

作者推测:将图像解码到离散类别空间会损失太多寓意信息,这些语义Mask带有的有限信息难以进一步提升深度模型性能(尤其是该模型已经极具竞争力)。

因此,作者从DINOv2方案中探寻更强语义信息以辅助监督该深度估计任务,即将DINOv2强语义能力通过辅助特征对齐损失方式迁移到所提深度模型中。损失函数定义如下:
L f e a t = 1 − 1 H W ∑ i = 1 H W c o s ( f i , f i ′ ) \mathcal{L}_{feat} = 1 - \frac{1}{HW} \sum_{i=1}^{HW} cos(f_i, f_i^{'}) Lfeat=1HW1i=1HWcos(fi,fi)

特征对齐的一个关键在于:DINOv2的语义编码器倾向于为同一目标不同部件生成相似特征。但是,在深度估计中,不同部件可能具有不同的深度。因此,没有必要要求深度模型生成与冻结编码器严格相同的特征

为解决该问题,作者为特征对齐设置了一个冗差参数 α \alpha α:当 f i , f i ′ f_i, f_i^{'} fi,fi之间的相似度高于该阈值时,该像素不被包含在上述损失中。这就使得该方案同时具备DINOv2的语义感知表征与深度监督的部件判别表征能力

本文方案

上表对比了当前相对深度估计SOTA方案MiDaS v3.1与所提方案在不同数据集上的性能,可以看到:

  • 在两个指标方面,所提方案均优于最强MiDaS模型;
  • 在DDAD数据集上,AbsRel指标从0.251改善到了0.230, δ 1 \delta_1 δ1指标从0.766提升到了0.789;
  • ViT-B模型甚至已经明显优于MiDaS模型,更小的ViT-S甚至都可以在几个未见数据集上优于MiDaS。

上两表域内与域外度量深度估计角度进行了对比,很明显:所提方案取得了非常优异的微调性能。

最后,作者还验证了所提MDE编码器在语义分割任务上的迁移能力,见上表。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AIWalker-Happy

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值