九点标定 opencv 方式实现 手眼标定

opencv获取中心点位置代码:

Mat SrcMat(nImgWidth, nImgHeight, CV_8UC3);
    UCharToMat(pSrcImg, nImgHeight, nImgWidth, 24, SrcMat);

    Mat grayMat;
    cvtColor(SrcMat, grayMat, COLOR_BGR2GRAY);
    Mat binMat = cv::Mat::zeros(SrcMat.size(), CV_8UC1);
    MYThresHold(grayMat.data, binMat.data, SrcMat.cols, SrcMat.rows, params.nGrayMin, params.nGrayMax);

    vector<vector<Point> > contours;
    vector<Vec4i> hierarchy;
    findContours(binMat, contours, hierarchy, CV_RETR_LIST, CV_CHAIN_APPROX_NONE);
    for (size_t i = 0; i < contours.size(); ++i) {
        double fArea = contourArea(contours[i]);
        if (fArea < params.nAreaMin || fArea > params.nAreaMax) {
            continue;
        }
        Moments mm = moments(contours[i], false);
        Point2f pnt = Point2f(mm.m10 / mm.m00, mm.m01 / mm.m00);//计算中心点
        ptCenter.push_back(pnt);
    }

获取手眼坐标变换系数:

    Mat warpMat = estimateAffine2D(points_camera, points_robot);//仿射变换
    double rms = 0;
    if (warpMat.cols == 3 && warpMat.rows == 2)
    {
        double A = warpMat.ptr<double>(0)[0];
        double B = warpMat.ptr<double>(0)[1];
        double C = warpMat.ptr<double>(0)[2];
        double D = warpMat.ptr<double>(1)[0];
        double E = warpMat.ptr<double>(1)[1];
        double F = warpMat.ptr<double>(1)[2];
        /*****************************************************RMS误差***********************************************/
        double sumX = 0, sumY = 0;
        for (int i = 0; i < 9; i++)
        {
            Point2f pt;
            pt.x = A * points_camera[i].x + B * points_camera[i].y + C;
            pt.y = D * points_camera[i].x + E * points_camera[i].y + F;
            sumX += pow(points_robot[i].x - pt.x, 2);
            sumY += pow(points_robot[i].y - pt.y, 2);
        }
        rms = sqrt(sumX / 9) + sqrt(sumY / 9);
    }
    for (int k = 0; k < 3; k++)
    {
        for (int i = 0; i < 9; i++)
        {
            /**********************************************对X操作**********************************************************/
            points_robot[i].x += 0.01;
            double curr = RMS_Add(points_camera, points_robot);
            if (curr < rms)
            {
                while (curr < rms)
                {
                    points_robot[i].x += 0.01;
                    rms = curr;
                    curr = RMS_Add(points_camera, points_robot);
                }
                points_robot[i].x -= 0.01;
            }
            else
            {
                points_robot[i].x -= 0.02;
                curr = RMS_Add(points_camera, points_robot);
                while (curr < rms)
                {
                    points_robot[i].x -= 0.01;
                    rms = curr;
                    curr = RMS_Add(points_camera, points_robot);
                }
                points_robot[i].x += 0.01;
            }
            /**********************************************对Y操作**********************************************************/
            points_robot[i].y += 0.01;
            curr = RMS_Add(points_camera, points_robot);
            if (curr < rms)
            {
                while (curr < rms)
                {
                    points_robot[i].y += 0.01;
                    rms = curr;
                    curr = RMS_Add(points_camera, points_robot);
                }
                points_robot[i].y -= 0.01;
            }
            else
            {
                points_robot[i].y -= 0.02;
                curr = RMS_Add(points_camera, points_robot);
                while (curr < rms)
                {
                    points_robot[i].y -= 0.01;
                    rms = curr;
                    curr = RMS_Add(points_camera, points_robot);
                }
                points_robot[i].y += 0.01;
            }
        }
    }
    Mat warp = estimateAffine2D(points_camera, points_robot);//仿射变换
    return warp;

最后,图像上得坐标转变为机械坐标:

ptR.x = _stCalibrateParams.A * ptI.x + _stCalibrateParams.B * ptI.y + _stCalibrateParams.C;
    ptR.y = _stCalibrateParams.D * ptI.x + _stCalibrateParams.E * ptI.y + _stCalibrateParams.F;

代码连接:https://download.csdn.net/download/weixin_42789529/88441518

推荐一个好用课堂管理小程序,欢迎扫码使用:
在这里插入图片描述

  • 4
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: OpenCV手眼标定是一个基于计算机视觉技术的手眼标定方法。在机器人自主定位和导航方面具有重要的应用价值。 手眼标定是指在机器人工作时,需要同时控制机械臂和相机进行定位测量。如果机器人视觉系统和机械系统是分开的,则需要进行手眼标定。通常情况下,手眼标定是在机器人与相机之间安装一个刚体棱镜来完成的。 Opencv手眼标定的思路是在使用计算机视觉技术对相机图像进行处理的同时,利用机器臂控制相机进行姿态变换,并记录相机各个姿态的转动量和位移量。根据这些数据,就可以计算出机器臂和相机的正确关系,从而实现机器人在3D空间中的定位和导航。 在实现手眼标定的过程中,需要对相机的内参、外参和机械臂的运动学参数进行精确测量,同时需要使用Opencv进行图像处理、特征提取、匹配和姿态估计等相关算法。通过数据的处理和计算,就可以得到机器人与相机之间准确的关系,从而实现精确的机器臂和相机控制。 总之,Opencv手眼标定是一种非常重要的机器人视觉技术,对于机器人的定位和导航具有重要的应用价值,其在工业制造、自主导航、环境监测和安全控制等领域将会有广泛的应用。 ### 回答2: OpenCV手眼标定是一种用于机器人和相机之间的标定方法。它的主要目的是确定机器人坐标系和相机坐标系之间的关系,以此来准确地获取机器人和相机之间的位置和姿态信息。该方法需要使用一系列已知的机器人坐标系和相机坐标系之间的对应点对来确定两个坐标系之间的转换矩阵。 通过手眼标定,我们可以精确测量机器人和相机之间的距离和方向,从而实现精确的机器人运动以及准确的相机视觉。在实际应用中,手眼标定常用于机器人视觉引导、三维重建、自主导航等领域。 OpenCV手眼标定是一种广泛使用的标定方法,具有较高的精度和可靠性。该方法要求精度较高的机器人和相机运动控制,并且需要在标定过程中准确地识别点对。此外,手眼标定需要较长的时间来准备标定数据和计算,因此在实际应用中需要谨慎使用。 总的来说,OpenCV手眼标定是一种精确可靠的机器人和相机之间的标定方法,可以应用于机器人视觉引导、三维重建、自主导航等领域。但是,它需要高精度的机器人和相机运动控制,并且需要谨慎使用以确保准确性。 ### 回答3: OpenCV 手眼标定是一种通过对相机和机械臂进行标定来确定它们之间准确的变换关系的方法。当机械臂需要使用相机进行定位、跟踪或者视觉检测时,这种标定方法非常重要。 手眼标定通常需要进行六次数据采集,其中每次需要采集机械臂基座与末端执行器的位姿关系以及相机手眼变换矩阵。这些数据可以使用不同方法计算得到。例如,可以使用相机外参和机器人关节角来计算相机位姿,同时使用机器人的末端执行器位姿和机器人关节角来计算机器人位姿。 通过这些数据,计算出两个坐标系之间的变换关系。然后,可以使用这些信息来确定机器人末端执行器的位置,并对相机进行校准,从而达到最佳视觉效果。 总之,OpenCV 手眼标定是一种非常有用的技术,能够帮助机械臂和相机之间进行准确的通信和协作。通过标定,机械臂可以更精确地进行定位和控制,同时相机也可以更好地捕捉并处理视觉数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

孙春泉

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值