顶刊TPAMI 2024!横扫16大榜单,最强开源单目深度估计算法!Metric3D v2:精度可以直接用于3D重建...

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Mamba和深度估计】交流群

添加微信号:CVer111,小助手会拉你进群!

扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!

852725feca22bc7bbc388ec87a319b39.png

Metric3Dv2团队 投稿
量子位 | 公众号 QbitAI

单目深度估计新成果来了!

方法名为Metric3D v2,是CVPR单目深度估计挑战赛冠军方案Metric3D的加强版。

用一套模型参数,在未知环境中,同时解决带尺度深度估计法向估计两个问题。

可用于生成真实世界的几何估计:

a777a1c4d2dc0ab5db57b2826c6a09b5.gif

在密集场景和特殊样本上也有较好效果:

d23980db4951e1fa6d72a513f23f376c.gif

无需微调和优化,可直接用于无人机感知:

afce951fb4e798e1f5035aae40a6b315.gif

无需调整尺度参数,提供单帧3D点云,其精度可以直接用于3D重建:

6596c5898b3c1eb1e34723dd68c0f727.gif

可部分替代物理深度估计工具,用于增强自动驾驶场景的单目SLAM:

c9f12f7cfe5615cdf949539da8b58915.gif

Metric3D v2在16个单目深度和法向估计基准榜单上拿下SOTA,涵盖绝对深度、相对深度和法向估计的域内和域外测试。

不做尺度对齐或微调,在KITTI上的单目深度估计相对误差可低至5%

400a95c606ca7c29b5f23e8fafabfe6a.png
a1855e744b50f2cb4519d77c65649fda.png

这项工作由来自香港科技大学、阿德莱德大学、西湖大学、英特尔、香港大学、浙江大学的研究人员共同打造,目前已被AI顶刊TPAMI接收。

cbc2f5aa62bf3387f6ab0e4cf02c50cf.png

单目深度估计受限于尺度二义性

单目深度估计技术在计算机视觉领域具有重要意义。这项技术能从单幅2D图像中推断出场景的3D结构,为众多应用提供了关键支持。

在传统领域,单目深度估计广泛应用于自动驾驶、机器人导航、增强现实等场景,帮助智能系统更好地理解和交互环境。

随着AIGC的兴起,单目深度估计在这一新兴领域也发挥着重要作用。它为3D场景生成、虚拟现实内容制作、图像编辑等任务提供了深度信息,大大提升了生成内容的真实感和沉浸感。

通过赋予AI系统对3D世界的理解能力,单目深度估计正在推动AIGC应用向更高维度发展。

但单目深度估计一直是一个“病态”问题,根本原因在于其受到尺度二义性的影响

对单张图像而言,尺度二义性来自于两个方面:

其一是物体大小未知产生的二义性:

777a7201ec19d3aab56b68eb6843ef4e.png

为解决这类问题,早期可泛化的深度估计模型如midas、leras等使用混合数据集训练深度估计网络,希望模型从大量数据集中学到各个物体在场景中的大小。

然而,不同数据集相机内参有很大差异,这种差异会引起第二种尺度二义性(有时又可视作透视畸变):

同一个物体,使用不同相机在不同距离拍摄出的图像也大致可能相同(下图雕塑完全一致,但背景产生了畸变),因而对该物体的深度估计会受到影响.

939d8ae04c212ef543913039bc4842e9.png

早期的midas、leras等工作,提出估计相对深度来规避相机差异带来的尺度二义性。

近期基于stable-diffusion的工作如Marigold/Geowizard或基于数据标注的工作DepthAnything v1/v2能够恢复更高精细度的相对深度,却无法恢复尺度信息。

为恢复尺度信息,前人提出将预训练好的相对深度模型,在特定数据集上过拟合以学习尺度信息,如ZoeDepth。然而,该方法使得网络学到的深度分布受限于所finetune的数据集,因而尺度误差较大。

为缓解相机内参变化引起的尺度二义性,Metric3D提出在公共相机空间中学习绝对深度。该空间被定义为一个焦距固定的针孔相机模型空间。

由于网络不再受相机尺度二义性的影响,学习难度被大大降低了。

在符合透视投影几何的前提下,论文提出两种将数据从真实焦距转换到公共焦距的方法。

  • 图像变换法(CSTM_image):通过缩放图像改变焦距的方法。

  • 标签变换法(CSTM_label): 拉伸或压缩整个场景z轴深度的方法。

凭借公共相机空间的设计,Metric3D仅仅依靠卷积模型就在CVPR单目深度估计挑战赛上获得冠军

567b9427f92b0014a94eedf5b278497d.png
算法框架:无须微调的有尺度深度估计;无须大量额外人工稠密重建的法向学习。

单目法向估计受限于数据质量

深度图可以直接由RGB-D相机,激光雷达等测距传感器获得。

然而,法向图真值需要稠密重建点云的渲染,稠密重建本身需要大量工程和人工成本(如Omnidata)。同时,室外场景的法向数据尤其难以获得。

在Metric3D v2这项研究中,引入了一种联合深度-法线优化框架,利用大规模深度标注的知识,克服户外法线数据标签稀缺的问题

在联合优化中,法向的知识来源有三:真实法向标注、迭代优化中深度和法向特征的前向交互 、稠密深度预测提供的伪法向标注

具体来说算法流程为:

  • 真实世界->公共空间:将图像和深度标签从真实世界转换到公共空间,使得图像和深度图满足公共空间焦距的透视投影关系。

  • 公共空间中估计几何:网络在公共空间预测初始深度图和法向图,并通过raft风格的迭代优化输出最终深度图和法向图。训练过程中,使用公共空间的深度图真值监督深度估计。

  • 公共空间->真实世界:将估计的深度图转回到真实世界,使之满足实际投影关系。训练时,当法向标注不可得时,使用预测出的深度图求梯度得到伪法向真值,以提供弱监督。

af8151d5c587269e06f3da28e4e93dc9.png

为增强模型鲁棒性,Metric3D v2在16个公开数据集共计16M张图像上进行训练。这些数据集由超过10000种相机内参采集,涵盖室内、室外、自动驾驶等多种场景。

然而,其所需的数据量仍远远小于训练DepthAnything v1/v2所需的62M。

fb6b1c7419d079add39e95892e790956.png

Metric3D v2实验结果

常规有尺度深度和法相估计的基准测试,Metric3D v2超越DepthAnything和OmniData(v2):

2bebaaec2e027f5c821d20b1df0738a4.png
560b846a6a42d2bddc306fb552eb7b7c.png
a14fdce8f0125f0c734dfdcd13be1bd4.png

相对深度估计基准测试,量化指标优于最近在CVPR2024大放异彩的Marigold:

3952466ef792794534a5595407419e6f.png

再来看定量比较。

1、多场景深度与法向估计

尽管Metric3D v2是判别式模型,但在一些场景下,其细粒度也可以和基于生成模型的Marigold平分秋色。

同时,由网络预测出的法向图比深度直接转换所得的更加平滑。

68a7a38cbb3c601b945770da655773da.png

对比其它基线方法ZoeDepth和OmniData(v2),Metric3D v2能给出更高细粒度的带尺度深度和法向。

4debebba008e67d3d2d1dbfdf67768cd.png
9c674ce05a5a41c5554ba937455697de.png

2、单目场景三维重建

即使像Marigold、DepthAnything v2这样的高精度相对深度模型,也需要在特定数据上拟合、或手动挑选出一组合适的仿射参数后,才能得到三维点云。

a1f6f1f6216037eb49118b027c097931.png
615a1a6820cb36170e61c0a064da5929.png
04914bf6a437219c78bcf0fea0b8ed54.png

3、单帧直接测距

Metric3Dv2模型具有更高精度的测距功能:

399ea76da2f69720d576a9840b7a03e6.png

总的来说,Metric3D v2是一种用于零样本单目有尺度深度和表面法线估计的几何基础模型。

论文针对真实尺度下几何估计中的各种挑战,分别提出了解决方案。Metric3Dv2框架整合超过10000台相机捕捉的上千万数据样本,训练一个统一的有尺度深度和表面法向模型。

零样本评估实验展示了方法的有效性和鲁棒性。对于下游应用,Metric3Dv2能够从单一视角重建有尺度的三维结构,实现对随机采集的互联网图像的测距和单帧稠密建图。

凭借其精度、泛化能力和多功能性,Metric3D v2 模型可作为单目几何感知的基础模型。

在线试用: 

https://huggingface.co/spaces/JUGGHM/Metric3D

论文链接:https://arxiv.org/abs/2404.15506.pdf
项目主页:https://jugghm.github.io/Metric3Dv2
代码仓库:https://github.com/YvanYin/Metric3D

 
 

何恺明在MIT授课的课件PPT下载

 
 

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

ECCV 2024 论文和代码下载

在CVer公众号后台回复:ECCV2024,即可下载ECCV 2024论文和代码开源的论文合集

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集

Mamba、多模态和扩散模型交流群成立

 
 
扫描下方二维码,或者添加微信号:CVer111,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer111,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集上万人!

▲扫码加入星球学习
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请赞和在看
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值