opencv双目视觉特征匹配点三角测量得到三维坐标

void StereoTo3D(vector<Point2f> ptsL, vector<Point2f> ptsR, vector<Point3f> &pts3D, Mat Q,Mat T)
{
	//1三角测量
	if (ptsL.size() != ptsR.size())
	{
		cout << "匹配点数量出现错误" << endl;
		return;
	}
	float cx = -Q.at<double>(0, 3);
	float cy = -Q.at<double>(1, 3);
	float f = Q.at<double>(2, 3);

	float B = sqrt(T.at<double>(0,0)* T.at<double>(0, 0) + T.at<double>(1, 0) * T.at<double>(1, 0) + T.at<double>(2, 0) * T.at<double>(2, 0));
	pts3D.resize(ptsL.size());
	for (int i = 0; i < ptsL.size(); i++)
	{
		pts3D[i].x = (ptsL[i].x - cx) * B / (ptsL[i].x - ptsR[i].x);
		pts3D[i].y = (ptsL[i].y - cy) * B / (ptsL[i].x - ptsR[i].x);
		pts3D[i].z = f         * B / (ptsL[i].x - ptsR[i].x);
	}

	//2基于cvPerspectiveTransform函数
	//CvMat *src = cvCreateMat(1, 1, CV_32FC3);//待变换点  
	//CvMat *dst = cvCreateMat(1, 1, CV_32FC3);//变换后点  
	//CvMat *perMat = cvCreateMat(4, 4, CV_32FC1);//透视投影变换矩阵  
	//*perMat = Q;
	//pts3D.resize(ptsL.size());
	//for (int i = 0; i < ptsL.size(); i++)
	//{
	//	cvZero(src);
	//	cvZero(dst);
	//	for (int j = 0; j < 3; j++)
	//	{
	//		float *p = (float*)cvPtr2D(src, 0, 0);
	//		*p++ = ptsL[i].x;
	//		*p++ = ptsL[i].y;
	//		*p = ptsL[i].x - ptsR[i].x;
	//	}
	//	cvPerspectiveTransform(src, dst, perMat);
	//	float *pp = (float*)cvPtr2D(dst, 0, 0);
	//	pts3D[i].x = *pp++;
	//	pts3D[i].y = *pp++;
	//	pts3D[i].z = *pp;
	//}
}

将双目标定校正后的参数导入即可。测试可行

  • 2
    点赞
  • 54
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 6
    评论
使用三角测量方法计算双目相机特征的世界坐标,需要用到相机内外参以及左右两个相机的特征对应关系。 下面是一个简单的示例代码,用于计算双目相机中的特征的世界坐标: ``` import cv2 import numpy as np # 读取图像和标定参数 img_left = cv2.imread('left.jpg') img_right = cv2.imread('right.jpg') K_left = np.array([[fx_left, 0, cx_left], [0, fy_left, cy_left], [0, 0, 1]]) # 左相机内部参数矩阵 dist_left = np.array([k1_left, k2_left, p1_left, p2_left, k3_left]) # 左相机畸变参数 K_right = np.array([[fx_right, 0, cx_right], [0, fy_right, cy_right], [0, 0, 1]]) # 右相机内部参数矩阵 dist_right = np.array([k1_right, k2_right, p1_right, p2_right, k3_right]) # 右相机畸变参数 R = np.array([[r11, r12, r13], [r21, r22, r23], [r31, r32, r33]]) # 旋转矩阵 T = np.array([[tx], [ty], [tz]]) # 平移向量 # 检测特征 detector = cv2.SIFT_create() kp_left = detector.detect(img_left) kp_right = detector.detect(img_right) # 计算特征对应关系 matcher = cv2.BFMatcher() matches = matcher.match(des_left, des_right) # des_left和des_right是特征的描述子 # 计算三维云 points_3d = [] for match in matches: # 计算左右相机的相机坐标 pt_left = np.array([kp_left[match.queryIdx].pt], dtype=np.float32) pt_right = np.array([kp_right[match.trainIdx].pt], dtype=np.float32) pts_left, _ = cv2.projectPoints(pt_left, np.zeros((3,1)), np.zeros((3,1)), K_left, dist_left) pts_right, _ = cv2.projectPoints(pt_right, np.zeros((3,1)), np.zeros((3,1)), K_right, dist_right) # 三角测量计算世界坐标 pt_4d_homogeneous = cv2.triangulatePoints(projMatr1=np.hstack((R, T)), projMatr2=np.hstack((np.identity(3), np.zeros((3, 1)))), projPoints1=pts_left.T, projPoints2=pts_right.T) pt_3d = pt_4d_homogeneous[:3] / pt_4d_homogeneous[3] points_3d.append(pt_3d) points_3d = np.array(points_3d) # 将三维云转换到世界坐标系下 points_3d_homogeneous = np.hstack((points_3d, np.ones((points_3d.shape[0], 1)))) points_3d_in_world = np.dot(R, points_3d_homogeneous.T) + T points_3d_in_world = points_3d_in_world.T print(points_3d_in_world) # 输出所有特征的世界坐标 ``` 这只是一个简单的示例,实际情况下可能需要进行更复杂的计算和处理。注意,上述代码中的描述子是通过SIFT算法获取的,如果您使用的是其他的特征算法,需要对应修改。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大臉喵愛吃魚

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值