关于计算机视觉中的深度信息概念

本文探讨了单目相机与双目相机在目标检测中获取深度信息的原理与限制。单目相机仅能获取物体与地面接触点的横纵向距离,而无法完整还原三维信息。双目相机通过模仿人类双眼的视差效应,能够精确获取物体的三维坐标,包括深度信息。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

引用:https://blog.csdn.net/a1059682127/article/details/80503378
https://www.zhihu.com/question/406919125/answer/1338670936
----单独使用单目相机进行目标检测时候,可以通过对相机标定的方式,获取所检测物体(物体与地面接触点)距离相机的横纵向距离信息(x,y);
----但是不与地面接触的物体部分的X,Y,Z轴,或者说物体大部分的位置信息(只能拿到与地面接触部分的距离信息,高度默认为0)无法获取,原因是相机在获取图像的时候会将物体的三维信息降维至二维图像信息,此时物体大部分的深度信息将无法逆向复原!

原因:基本透视投影——》透视投影是多对一的关系,投影线上的任何一点对应同一个像点。
如果用两个摄像机, 则可以消除这种多对一,确定三维坐标的值,即深度信息
双目为什么可以感知深度信息呢?我们的左右眼从略微不同的角度观察景物,而这种视差与物体所处的位置有关。

通常来说图像都是通过摄像头给拍出来的,虽然我们日常生活中事物都是三维的,但是通过摄像头给拍出来的图像却是二维的,因此在拍摄的过程中我们其实丢失了一维的信息,而这个一维的信息就是物体在空间里的相互距离,比如下图左上角的卧室照片,我们可以看到卧室里有哪些东西,但是我们****很难估计里面各个物体之间的距离是什么,比如床和电脑桌之间的距离,我们可以看到大概的方位,但是没有办法准确的估计距离,而这里的距离信息也就是深度(Depth)所指的含义,为了方便计算,通常深度在机器视觉里面都是指空间里面的各个点相对于摄像头的距离,知道了这个信息之后就可以很方便的计算各点之间的相互距离了。
注意:深度信息需要获取到空间中的各个点相对于相机的距离,然而单目视觉只能获取与地面接触点的距离信息。
在这里插入图片描述

总结:深度信息大部分文章用物体各点到相机的距离来替代,用以表示物体离相机的远近距离关系,然而,去除Z轴(纵向距离信息)外,各点的高度、横向距离信息也是深度的一个体现,或者说,深度信息指的是所检测到的物体各个点的三维坐标信息!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

sjh_sjh_sjh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值