使用opencv ppf icp 进行模型和场景的匹配

了解ppf icp

此链接可查看 ppf icp 意义

结果

程序

在这里插入图片描述

模型

场景模型
在这里插入图片描述
拟合后模型
在这里插入图片描述

实现代码

// 讲提取的点云和法相量转化为opencv mat格式
static cv::Mat get_mat(pcl::PointCloud<pcl::PointXYZ>& points, pcl::PointCloud<pcl::Normal>& normals)
{
    cv::Mat mat(points.size(),6, CV_32F);
    int c;
    for (size_t i = 0; i < points.size(); ++i)
    {
        c = i;
        mat.at<float>(i, 0) = points.at(i).x;
        mat.at<float>(i, 1) = points.at(i).y;
        mat.at<float>(i, 2) = points.at(i).z;
        mat.at<float>(i, 3) = normals.at(i).normal_x;
        mat.at<float>(i, 4) = normals.at(i).normal_y;
        mat.at<float>(i, 5) = normals.at(i).normal_z;
    }
    return mat;
}

static Eigen::Matrix4f get_rt(cv::Matx44d& mat)
{
    Eigen::Matrix4f res{};
    for (size_t i = 0; i < 4; ++i)
    {
        res(i, 0) = mat(i, 0);
        res(i, 1) = mat(i, 1);
        res(i, 2) = mat(i, 2);
        res(i, 3) = mat(i, 3);
    }
    return res;
}
static void ppf_test()
{
    using namespace std::string_literals;
    // 模型文件opencv源码里有
    auto modelPath = "D:\\0tmp\\ppfdata\\parasaurolophus_low_normals2.ply"s;
    auto scenePath = "D:\\0tmp\\ppfdata\\rs1_normals.ply"s;

    // 使用 pcl读取模型
    pcl::PointCloud<pcl::PointXYZ>::Ptr modelCloud(new pcl::PointCloud<pcl::PointXYZ>);
    pcl::PointCloud<pcl::Normal>::Ptr modelCloudNormals(new pcl::PointCloud<pcl::Normal>);

    pcl::PointCloud<pcl::PointXYZ>::Ptr sceneCloud(new pcl::PointCloud<pcl::PointXYZ>);
    pcl::PointCloud<pcl::Normal>::Ptr sceneCloudNromals(new pcl::PointCloud<pcl::Normal>);

    pcl::PLYReader re{};
    re.read(modelPath, *modelCloud);
    re.read(modelPath, *modelCloudNormals);
    re.read(scenePath, *sceneCloud);
    re.read(scenePath, *sceneCloudNromals);

    cv::Mat sMat = get_mat(*sceneCloud, *sceneCloudNromals);
    cv::Mat mMat = get_mat(*modelCloud, *modelCloudNormals);
    cv::ppf_match_3d::PPF3DDetector ppf{};
    ppf.trainModel(mMat);
    std::vector<cv::ppf_match_3d::Pose3DPtr> rt;
    double timeStart, timeEnd, timeUse;
    timeStart = static_cast<double>(cv::getTickCount());
    ppf.match(sMat,rt);
    timeEnd = static_cast<double>(cv::getTickCount());
    timeUse = (timeEnd - timeStart) / cv::getTickFrequency();
    std::cout << std::format("ppf time use{}\n", timeUse);
    cv::ppf_match_3d::ICP icp(20);
    timeStart = static_cast<double>(cv::getTickCount());
    auto res = icp.registerModelToScene(mMat, sMat, rt);
    timeEnd = static_cast<double>(cv::getTickCount());
    timeUse = (timeEnd - timeStart) / cv::getTickFrequency();
    std::cout << std::format("icp res{}, time use{}\n", res, timeUse);
    Eigen::Matrix4f pose = get_rt(rt[0]->pose);
    pcl::PointCloud<pcl::PointXYZ>::Ptr targetPoints(new pcl::PointCloud<pcl::PointXYZ>);
    pcl::transformPointCloud(*modelCloud, *targetPoints, pose);
    pcl::PLYWriter pw{};
    // 对模型文件应用rt时期能拟合场景
    pw.write("D:\\MoveModel.ply", *targetPoints);
}
  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
课程目的:OpenCV是应用非常广泛的开源视觉处理库,在图像处理、计算机视觉和自动驾驶中有着非常重要的作用。课程设计特色:(课程当前为第一期)1、C++与Python双语教学Python语言是在计算机视觉中应用最多的一种语言,在工作中,深度学习模型的训练基本上都是使用Python语言编写的训练代码。OpenCV在这个过程中用于图像的预处理(例如图像读取、数据增强)和后处理,还可以用于显示处理的结果,功能强大,使用方便。但是在功能的部署的时候,不管是部署在服务端还是PC端,开发语言基本上用的是C++,所以如何有效的使用OpenCV进行模型或者功能的部署尤为重要。C++语言应用的好坏,在面试中可以看出一个面试者的工程实践能力的强弱,两种语言的开发掌握好了可以使工作如虎添翼。2、全模块讲解我出版了一本图书《学习OpenCV4:基于Python的算法实战》,虽然这本书是写的基于Python的算法实战,但是实际上这本书有详细的介绍算法的C++接口,还有一些C++方向的案例,是以Python为主。图书出版的时候就想双语写作,只是限于篇幅没有成行。本课程不仅采用双语教学,更是对C++的每个模块都做讲解,我们知道,很多的书其实只讲imgproc,如果你翻开一本书图像的形态学运算和图像滤波都是作为独立章节讲解的,那么这本书基本上就可以确定是只是讲解了imgproc模块,但是其他的模块在工作中也有很重要的作用。例如:core模块定义了C++的基本数据结构和基本运算(如四则运算);highgui模块是可视化与交互的模块;feature2d是特征点与特征匹配相关算法所在的模块;ml是机器学习相关的模块;dnn是深度学习相关的模块,可以使用OpenCV进行深度学习模型的部署。这些是很多的书和课程都不会讲的。3、讲解细致本课程会从环境搭建开始讲解,环境搭建尤为重要。从我多年的授课经验总结来看,如果只是给了代码,很多的入门用户环境问题处理不好的话,后面的学习很难进行下去,甚至会丧失学习的信心。4、会讲解C++和Python的开发语法问题是入门用户的一大难关,特别是C++语言。大学只是教授了C语言相关的内容,C++很多同学只懂一点皮毛,所以写代码步履维艰,我们在讲解代码的过程中会顺带讲解C++和Python的内容。我们还会讲解编译相关知识,还有库的装载与链接,这些是学校里不会教的,目前也几乎没有课程讲解。5、讲师经验丰富我讲解过C++和OpenCV的多个课程,广受学员好评。我出版过两本图书《深度学习计算机视觉实战》和《学习OpenCV4》,两本书都是细致入微的讲解,主要针对的就是初学者,所以能够很好的处理课程的难易程度。6、讲义准备充分讲义准备的充分细致,标识清楚明确,重点和疑难点突出。
使用 OpenCvSharp 进行 SURF 特征匹配时,可以按以下步骤计算匹配分数: 1. 读入图像:首先使用 OpenCvSharp 加载需要匹配的两张图像。 2. 提取特征点和特征向量:使用 SURF 算法提取两张图像中的特征点和特征向量。 3. 特征匹配使用 FlannBasedMatcher 进行特征点匹配,得到匹配对。 4. 计算匹配分数:根据匹配对计算匹配分数,可以使用 distance 进行距离计算,也可以使用 Lowe's ratio 进行比率测试。 示例代码: ``` // 读入图像 Mat img1 = Cv2.ImRead("img1.png", ImreadModes.Color); Mat img2 = Cv2.ImRead("img2.png", ImreadModes.Color); // 提取特征点和特征向量 SURF surfDetector = SURF.Create(500, 4, 2, true, true); KeyPoint[] keypoints1, keypoints2; Mat descriptor1, descriptor2; surfDetector.DetectAndCompute(img1, null, out keypoints1, descriptor1); surfDetector.DetectAndCompute(img2, null, out keypoints2, descriptor2); // 特征匹配 FlannBasedMatcher matcher = new FlannBasedMatcher(); DMatch[] matches = matcher.Match(descriptor1, descriptor2); // 计算匹配分数 double max_dist = 0; double min_dist = 100; for (int i = 0; i < descriptor1.Rows; i++) { double dist = matches[i].Distance; if (dist < min_dist) min_dist = dist; if (dist > max_dist) max_dist = dist; } List<DMatch> goodMatches = new List<DMatch>(); for (int i = 0; i < descriptor1.Rows; i++) { if (matches[i].Distance <= Math.Max(2 * min_dist, 0.02)) { goodMatches.Add(matches[i]); } } double matchScore = (double)goodMatches.Count / (double)descriptor1.Rows; ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值