【双目视觉】基于opencv双目校正以及双目测距

基于opencv双目校正、匹配以及双目测距

在完成双目标定后,使用matlab的双目标定结果,通过本文代码实现双目匹配以及测距功能。

一共有6个参数供opencv调用,
camera1的内参stereoParams.CameraParameters1.IntrinsicMatrix,需要转置一下才能给opencv用
camera1畸变,
camera2的内参stereoParams.CameraParameters1.IntrinsicMatrix,需要转置一下才能给opencv用
camera2畸变,
camera2相对于camera1的旋转矩阵R,
平移向量T,
RadialDistortion为径向畸变K1,K2,K3,TangentialDistortion为切向畸变P1,P2,opencv调用时,写成K1,K2,P1,P2,K3的形式。
其中stereoParams.RotationOfCamera2需要转置一下才能给opencv用

在这里插入图片描述
IntrinsicMatrix为相机内参
转置后使用
同样,转置后使用
双目校正以及双目测距程序

const int imageWidth = 1280;                             //摄像头的分辨率  
const int imageHeight = 960;
Size imageSize = Size(imageWidth, imageHeight);

Mat rgbImageL, grayImageL;
Mat rgbImageR, grayImageR;
Mat rectifyImageL, rectifyImageR;

Rect validROIL;                    //图像校正之后,会对图像进行裁剪,这里的validROI就是指裁剪之后的区域  
Rect validROIR;

Mat mapLx, mapLy, mapRx, mapRy;     //映射表  
Mat Rl, Rr, Pl, Pr, Q;              //校正旋转矩阵R,投影矩阵P 重投影矩阵Q
Mat xyz;                            //三维坐标

Point origin;                       //鼠标按下的起始点
Rect selection;                     //定义矩形选框
bool selectObject = false;          //是否选择对象

int blockSize = 0, uniquenessRatio = 0, numDisparities = 0;
Ptr<StereoBM> bm = StereoBM::create(16, 9);

Mat cameraMatrixL = (Mat_<double>(3, 3) << 2144.06346549771, 0.100643435575966, 646.043075091062,
	0, 2143.99089450596, 464.484668545036,
	0, 0, 1);
//对应matlab里的左相机标定矩阵
Mat distCoeffL = (Mat_<double>(5, 1) << -0.104172724212748, 0.631426634642516, -0.000140339755577950, -2.84532653431087e-05, -2.98168604169012);
//对应Matlab所得左i相机畸变参数

Mat cameraMatrixR = (Mat_<double>(3, 3) << 2138.90347672270, 0.0977396849787843, 616.264883906150,
	0, 2138.45223485518, 487.443540617963,
	0, 0, 1);
//对应matlab里的右相机标定矩阵

Mat distCoeffR = (Mat_<double>(5, 1) << -0.107664131896022, 0.931919012650515, 0.000771517217186294, -0.00222846348625879, -6.73584559954540);
//对应Matlab所得右相机畸变参数

Mat T = (Mat_<double>(3, 1) << 217.566795926254, -1.47347980033928, 40.6236428586625);//T平移向量
															                          //对应Matlab所得T参数
//Mat rec = (Mat_<double>(3, 1) << -0.00306, -0.03207, 0.00206);                      //rec旋转向量,对应matlab om参数
Mat R = (Mat_<double>(3, 3) << 0.922572822248496, 0.00184459869643134, -0.385818590925962,
	-0.000707735126960054, 0.999994979714303, 0.00308863354582006,
	0.385822351295821, -0.00257643199782606, 0.922569496156644);                      //R 旋转矩阵


	  /*****立体匹配*****/
void stereo_match(int, void*)
{
	bm->setBlockSize(2 * blockSize + 5);     //SAD窗口大小,5~21之间为宜
	bm->setROI1(validROIL);
	bm->setROI2(validROIR);
	bm->setPreFilterCap(31);
	bm->setMinDisparity(0);  //最小视差,默认值为0, 可以是负值,int型
	bm->setNumDisparities(numDisparities * 16 + 16);//视差窗口,即最大视差值与最小视差值之差,窗口大小必须是16的整数倍,int型
	bm->setTextureThreshold(10);
	bm->setUniquenessRatio(uniquenessRatio);//uniquenessRatio主要可以防止误匹配
	bm->setSpeckleWindowSize(100);
	bm->setSpeckleRange(32);
	bm->setDisp12MaxDiff(-1);
	Mat disp, disp8;
	bm->compute(rectifyImageL, rectifyImageR, disp);//输入图像必须为灰度图
	disp.convertTo(disp8, CV_8U, 255 / ((numDisparities * 16 + 16)*16.));//计算出的视差是CV_16S格式
	reprojectImageTo3D(disp, xyz, Q, true); //在实际求距离时,ReprojectTo3D出来的X / W, Y / W, Z / W都要乘以16(也就是W除以16),才能得到正确的三维坐标信息。
	xyz = xyz * 16;
	imshow("disparity", disp8);
}

/*****描述:鼠标操作回调*****/
static void onMouse(int event, int x, int y, int, void*)
{
	if (selectObject)
	{
		selection.x = MIN(x, origin.x);
		selection.y = MIN(y, origin.y);
		selection.width = std::abs(x - origin.x);
		selection.height = std::abs(y - origin.y);
	}

	switch (event)
	{
	case EVENT_LBUTTONDOWN:   //鼠标左按钮按下的事件
		origin = Point(x, y);
		selection = Rect(x, y, 0, 0);
		selectObject = true;
		cout << origin << "in world coordinate is: " << xyz.at<Vec3f>(origin) << endl;
		break;
	case EVENT_LBUTTONUP:    //鼠标左按钮释放的事件
		selectObject = false;
		if (selection.width > 0 && selection.height > 0)
			break;
	}
}


/*****主函数*****/
int main()
{
	/*
	立体校正
	*/
	//Rodrigues(rec, R); //Rodrigues变换
	stereoRectify(cameraMatrixL, distCoeffL, cameraMatrixR, distCoeffR, imageSize, R, T, Rl, Rr, Pl, Pr, Q, CALIB_ZERO_DISPARITY,
		0, imageSize, &validROIL, &validROIR);
	initUndistortRectifyMap(cameraMatrixL, distCoeffL, Rl, Pr, imageSize, CV_32FC1, mapLx, mapLy);
	initUndistortRectifyMap(cameraMatrixR, distCoeffR, Rr, Pr, imageSize, CV_32FC1, mapRx, mapRy);

	/*
	读取图片
	*/
	rgbImageL = imread("l1.bmp", CV_LOAD_IMAGE_COLOR);
	cvtColor(rgbImageL, grayImageL, CV_BGR2GRAY);
	rgbImageR = imread("r1.bmp", CV_LOAD_IMAGE_COLOR);
	cvtColor(rgbImageR, grayImageR, CV_BGR2GRAY);

	imshow("ImageL Before Rectify", grayImageL);
	imshow("ImageR Before Rectify", grayImageR);

	/*
	经过remap之后,左右相机的图像已经共面并且行对准了
	*/
	remap(grayImageL, rectifyImageL, mapLx, mapLy, INTER_LINEAR);
	remap(grayImageR, rectifyImageR, mapRx, mapRy, INTER_LINEAR);

	/*
	把校正结果显示出来
	*/
	Mat rgbRectifyImageL, rgbRectifyImageR;
	cvtColor(rectifyImageL, rgbRectifyImageL, CV_GRAY2BGR);  //伪彩色图
	cvtColor(rectifyImageR, rgbRectifyImageR, CV_GRAY2BGR);

	//单独显示
	//rectangle(rgbRectifyImageL, validROIL, Scalar(0, 0, 255), 3, 8);
	//rectangle(rgbRectifyImageR, validROIR, Scalar(0, 0, 255), 3, 8);
	imshow("ImageL After Rectify", rgbRectifyImageL);
	imshow("ImageR After Rectify", rgbRectifyImageR);

	//显示在同一张图上
	Mat canvas;
	double sf;
	int w, h;
	sf = 600. / MAX(imageSize.width, imageSize.height);
	w = cvRound(imageSize.width * sf);
	h = cvRound(imageSize.height * sf);
	canvas.create(h, w * 2, CV_8UC3);   //注意通道

										//左图像画到画布上
	Mat canvasPart = canvas(Rect(w * 0, 0, w, h));                                 //得到画布的一部分  
	resize(rgbRectifyImageL, canvasPart, canvasPart.size(), 0, 0, INTER_AREA);     //把图像缩放到跟canvasPart一样大小  
	Rect vroiL(cvRound(validROIL.x*sf), cvRound(validROIL.y*sf),                   //获得被截取的区域    
		cvRound(validROIL.width*sf), cvRound(validROIL.height*sf));
	//rectangle(canvasPart, vroiL, Scalar(0, 0, 255), 3, 8);                       //画上一个矩形  
	cout << "Painted ImageL" << endl;

	//右图像画到画布上
	canvasPart = canvas(Rect(w, 0, w, h));                                         //获得画布的另一部分  
	resize(rgbRectifyImageR, canvasPart, canvasPart.size(), 0, 0, INTER_LINEAR);
	Rect vroiR(cvRound(validROIR.x * sf), cvRound(validROIR.y*sf),
		cvRound(validROIR.width * sf), cvRound(validROIR.height * sf));
	//rectangle(canvasPart, vroiR, Scalar(0, 0, 255), 3, 8);
	cout << "Painted ImageR" << endl;

	//画上对应的线条
	for (int i = 0; i < canvas.rows; i += 16)
		line(canvas, Point(0, i), Point(canvas.cols, i), Scalar(0, 255, 0), 1, 8);
	imshow("rectified", canvas);

	/*
	立体匹配
	*/
	namedWindow("disparity", CV_WINDOW_AUTOSIZE);
	// 创建SAD窗口 Trackbar
	createTrackbar("BlockSize:\n", "disparity", &blockSize, 8, stereo_match);
	// 创建视差唯一性百分比窗口 Trackbar
	createTrackbar("UniquenessRatio:\n", "disparity", &uniquenessRatio, 50, stereo_match);
	// 创建视差窗口 Trackbar
	createTrackbar("NumDisparities:\n", "disparity", &numDisparities, 16, stereo_match);
	//鼠标响应函数setMouseCallback(窗口名称, 鼠标回调函数, 传给回调函数的参数,一般取0)
	setMouseCallback("disparity", onMouse, 0);
	stereo_match(0, 0);

	waitKey(0);
	return 0;
}

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 双目视觉是一种基于人类双眼视觉原理的图像处理技术。OpenCV是一个流行的计算机视觉库,提供了用于双目视觉的定标、校正和测距等功能。 首先,双目视觉的定标是指测量和记录相机的内部参数和外部参数。内部参数包括焦距、主点位置和镜头畸变等,而外部参数则包括相机在三维空间中的位置和方向。OpenCV提供了一些函数和方法,可以通过拍摄一组特定的标定图案,来自动计算这些参数。 其次,校正双目视觉中的一个重要步骤。由于镜头畸变等因素,相机采集的图像可能存在突变和形变。校正处理可以通过将图像重新映射到一个无畸变的状态来修复这些问题。OpenCV提供了双目立体校正的函数和方法,可以校正和矫正双目图像,使其达到最佳的观测效果。 最后,测距是利用双目相机的图像信息来计算场景中物体的距离。双目视觉系统可以通过分析两个图像之间的视差(如左右眼图像中对应点的位置偏移)来计算物体的深度。OpenCV提供了一系列函数和算法,可以根据视差来进行三角测量,从而得出物体的实际距离。 综上所述,OpenCV提供了一套完整的双目视觉解决方案,包括定标、校正和测距等功能。这些功能可以帮助我们实现双目立体视觉应用,如三维重建、障碍物检测等,对于机器人、自动驾驶和增强现实等领域有着广泛的应用前景。 ### 回答2: 双目视觉是一种利用两个摄像头进行深度感知的技术。OpenCV是一个流行的计算机视觉库,它提供了一些用于双目视觉的函数和工具。 双目视觉系统需要进行定标和校正,以获得准确的测距结果。首先,需要进行定标,即确定两个摄像头的内部和外部参数。内部参数包括焦距、主点位置和畸变系数,这些参数描述了摄像头的几何特性。外部参数包括两个摄像头之间的旋转和平移关系。通过在空间中放置已知尺寸的棋盘格,并在两个摄像头中采集相应的图像,可以通过OpenCV的定标函数来计算这些参数。 完成定标后,需要进行校正校正旨在消除因摄像头的畸变引起的图像形状扭曲。OpenCV提供了双目校正函数,它可以根据定标结果来计算校正映射矩阵。这个映射矩阵可以将两个摄像头的图像转换为校正后的图像,使得校正后的图像的对应点在水平方向上具有相同的像素坐标。 校正后,可以利用双目视觉系统进行测距。通过对校正后的图像进行匹配,可以找到两个摄像头中相同场景中的对应点。然后,可以根据这些对应点的像素坐标和摄像头的基线长度,使用三角定位原理来计算物体的实际距离。OpenCV提供了一些函数来执行这些操作,可以通过计算视差(即对应点像素的差值)来获得物体与摄像头之间的距离。 总之,通过OpenCV的定标、校正和测距功能,可以实现双目视觉系统的建立和应用,用于实时测量和深度感知等应用领域。 ### 回答3: 双目视觉是一种使用两个摄像头同时获取场景信息的技术,通过计算两个摄像头之间的视差,可以实现三维场景的测量和距离计算。在进行双目视觉之前需要进行定标、校正和测距的步骤。 首先是定标步骤。双目相机需要确定两个摄像头之间的相对位置和姿态,这个过程称为相机的定标。定标时需要使用一个已知尺寸的物体,如棋盘格,拍摄多张图像,通过计算图像中棋盘格的角点坐标,可以得到相机的内外参数,包括焦距、畸变等参数。 接下来是校正步骤。校正是为了消除图像中的畸变,使得图像中的像素和实际物理距离之间能够相互对应。校正的过程主要包括去除镜头畸变和图像的对齐。通过定标得到的相机参数,可以将图像进行畸变矫正,使得棋盘格的角点在校正后的图像中在同一条直线上。同时,还需要对两个摄像头的图像进行对齐,使得左右眼的图像中相同位置的像素能够对应。 最后是测距步骤。在定标和校正之后,就可以进行双目视觉的测距了。测距的原理是根据视差来计算物体到摄像头的距离。通过获取左右眼图像中相同的像素点,计算其在图像中的视差,然后利用已知的相机参数和视差公式,可以得到物体的距离。在实际应用中,可以采用三角测距法或基于深度学习的方法来进行测距。 双目视觉的定标、校正和测距是实现双目测距的重要步骤,通过这些步骤可以得到准确的距离信息,从而实现更精确的三维场景重建、物体检测等应用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值