双目三维重建和误差估计

双目测距精度依赖于基线长度,但实际应用中受限于相机布设空间,适用于近距离高精度测量。图像测量受光照、相机性能影响,且算法复杂。相机标定后,结合内参、畸变矩阵和相机相对位置进行三维重建。通过OpenCV获取角点坐标,计算三维建模测距误差,以评估重建精度。
摘要由CSDN通过智能技术生成

应用场景:

双目测距的精度和基线长度(两台相机之间的距离)有关,两台相机布放的距离越远,测距精度越高。
但问题是:往往在实际应用中,相机的布放空间是有限的,最多也只有几米或几十米的基线长度,这就导致双目测距在远距离条件下的精度大打折扣。

所以,双目测距一般用于近距离的高精度测量,而远距离测距一般用脉冲式的激光测距机。
图像测量方法的优点是近距离精度高,但是图像质量受外界光照等条件制约太大,且由于相机性能往往不够稳定,加上算法相对复杂些,这些都会限制它的应用。


在相机标定后,我们就可以用得到的相机内参矩阵、畸变矩阵、两相机相对位置变换矩阵进行三维重建了。用数学方法进行空间变换很容易得到图像坐标(在两相机拍摄的同一帧图像上对应点坐标)与三维坐标(相对某一相机建模的三维坐标)之间的关系,原理参考https://blog.csdn.net/tiemaxiaosu/article/details/51734667#commentsedit

用 OpenCV goodFeaturesToTrack()函数得到角点坐标,取得左右相机同一帧图像对应点AB的像素坐标。

再计算得到空间两点AB双目三维空间计算距离和实际测量距离,得到三维建模测距误差,三维建模代码如下:

Point2f xyz2uv(Point3f worldPoint,float intrinsic[3][3],float translation[1][3],float rotation[3][3]);
Point3f uv2xyz(Point2f uvLeft,Point2f uvRight);

//左相机内参数矩阵
float leftIntrinsic[3][3] = {294.0911635717881,	 0,		310.6171586702577,
                             0,	295.3905526589596,		256.4320568139868,
                             0,			 0,				1};

//左相机旋转矩阵
float leftRotation[3][3] = {1,	        0,		0,
                            0,		1,		0,
                            0,		0,		1};
//左相机平移向量
float leftTranslation[1][3] = {0, 0, 0};

//右相机内参数矩阵
float rightIntrinsic[3][3] = {293.27225104276044,0,335.4364278875495,
           
  • 2
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值