视觉SLAM实践入门——(16)使用SVD求解ICP

在理论部分已经总结了使用SVD求解的步骤(视觉SLAM理论入门——(9)视觉里程计之特征点法—ICP_floatinglong的博客-CSDN博客):

 

1、求点对的去质心坐标

2、估计旋转矩阵 R

3、计算平移向量 t

书中的问题

这部分书上源码有点不好理解(实际上书中并没有指明参考系,假定以相机1为参考系):

1、求得的 R 不是相机1到相机2的旋转矩阵, 而是它的逆(R^T

2、求得的 t 不是相机1到相机2的平移向量,而是它的相反数( -t )

结论 — 按照书中的源码,求解时应该是以相机2作为参考系,求相机2到相机1的位姿(前面2d-2d、3d-2d均是以相机1作为参考),本文所附代码以相机1为参考,求解相机1到相机2的位姿

以相机1为参考进行运动估计:

1、对于旋转矩阵,有两种解释

① 按照书中对 w 的定义以及 对 R 的求解公式(认为这是正确的),要以相机1为参考进行求解,需要将下面代码点对的位置交换

W += Eigen::Vector3d(q1[i].x, q1[i].y, q1[i].z) * Eigen::Vector3d(q2[i].x, q2[i].y, q2[i].z).transpose();

② 按照比较自然的定义方法, w 取书本定义的 w 的转置,那么求解 R 的时候,也应该取书本中公式的转置,那么按照上面代码对 w 的定义,求解的便是相机1到相机2的旋转矩阵

2、对于平移向量,同样是点对的问题,如果要求相机1到相机2的平移向量,下面代码的计算方法应该改为 t^* = p_2 - R * p_1

  Eigen::Vector3d t_ = Eigen::Vector3d(p1.x, p1.y, p1.z) - R_ * Eigen::Vector3d(p2.x, p2.y, p2.z);

下面贴上我的代码,定义方式与源码有点不一样,大致过程是一样的

#include <iostream>
using namespace std;

#include <opencv2/core/core.hpp>
#include <opencv2/features2d/features2d.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/calib3d/calib3d.hpp>
using namespace cv;

#include <Eigen/Core>
#include <Eigen/SVD>
#include <Eigen/Dense>


//提取ORB特征并匹配
void findAndMatchOrbFeature(const Mat &img1, const Mat &img2, 
	vector<KeyPoint> &kp1, vector<KeyPoint> &kp2, 
	vector<DMatch> &matches)
{	
	Ptr<FeatureDetector> detector = ORB::create();
	Ptr<DescriptorExtractor> desc = ORB::create();
	Ptr<DescriptorMatcher> matcher = DescriptorMatcher::create("BruteForce-Hamming");
	
	//检测角点
	detector->detect(img1, kp1);
	detector->detect(img2, kp2);
	
	//计算描述子
	Mat desc1, desc2;	
	desc->compute(img1, kp1, desc1);
	desc->compute(img2, kp2, desc2);
	
	//匹配点对
	vector<DMatch> allMatches;
	matcher->match(desc1, desc2, allMatches);
	
	//检测误匹配
	double minDist = 10000;
	for(auto m : allMatches)
		if(m.distance < minDist)	minDist = m.distance;
	
	double useDist = max(2*minDist, 30.0);
	for(auto m : allMatches)	
		if(m.distance <= useDist)
			matches.push_back(m);	
}

//将像素坐标转化为归一化坐标
Point2d pixelToNor(const Point2d &p, const Mat & k)
{
	//像素坐标 = k * 归一化坐标
	//xp = fx * xn + cx
	return Point2d((p.x - k.at<double>(0, 2)) / k.at<double>(0, 0), (p.y - k.at<double>(1, 2)) / k.at<double>(1, 1));
}

void poseEstimate3d3d(const vector<Point3d> &p1s3d, const vector<Point3d> &p2s3d, 
	Mat &R, Mat &t)
{
/***********************
    1、求去质心坐标
	2、SVD分解求R
	3、求t
************************/

	Point3d p1(0, 0, 0), p2(0, 0, 0);
	//求质心p1、p2
	for(int i = 0; i < (int)p1s3d.size(); i++)
	{
		p1 += p1s3d[i];
		p2 += p2s3d[i];
	}
	p1 = p1 / (int)(p1s3d.size());
	p2 = p2 / (int)(p2s3d.size());
	
	//使用去质心坐标,求 w
	Eigen::Matrix3d w = Eigen::Matrix3d::Zero();
	for(int i = 0; i < (int)p1s3d.size(); i++)
	{		
		Point3d p_3d = p1s3d[i] - p1;	
		Point3d p3d = p2s3d[i] - p2;
		
		Eigen::Vector3d p_V3d(p_3d.x, p_3d.y, p_3d.z), pV3d(p3d.x, p3d.y, p3d.z);
		w += p_V3d*pV3d.transpose();
	}
	
	//SVD分解求 R ,按照这里 w 的定义方式,R = VU^T
	JacobiSVD<Eigen::Matrix3d> svd(w, ComputeFullU | ComputeFullV );
	Eigen::Matrix3d U = svd.matrixU();
	Eigen::Matrix3d V = svd.matrixV();
	
	Eigen::Matrix3d R_ = V*U.transpose();
		  
	if(R_.determinant() < 0)	//保证det > 0
		R_ = -R_;

	//根据 R ,求t
	t = (Mat_<double>(3, 1) << t_(0, 0), t_(1, 0), t_(2, 0));	
		
	//重构Mat格式的 R,t
	R = (Mat_<double>(3, 3) << R_(0, 0), R_(0, 1), R_(0, 2),
								R_(1, 0), R_(1, 1), R_(1, 2),
								R_(2, 0), R_(2, 1), R_(2, 2));
	
	Eigen::Vector3d p_(p1.x, p1.y, p1.z),  p(p2.x, p2.y, p2.z);
	Eigen::Vector3d t_ = p - R_*p_;
}

int main(int argc, char **argv)
{
	if(argc != 5)
	{
		cout << "error!" << endl;
		return 0;
	}

	Mat img1 = imread(argv[1], CV_LOAD_IMAGE_COLOR);
	Mat img2 = imread(argv[2], CV_LOAD_IMAGE_COLOR);

	//提取ORB特征、匹配点对
	vector<KeyPoint> kp1, kp2;
	vector<DMatch> matches;
	findAndMatchOrbFeature(img1, img2, kp1, kp2, matches);
	
		
	//读取深度图,获得3d点对,每个像素占据16字节(单通道)
	Mat img3 = imread(argv[3], CV_LOAD_IMAGE_UNCHANGED);
	Mat img4 = imread(argv[4], CV_LOAD_IMAGE_UNCHANGED);	
	Mat k = (Mat_<double>(3, 3) << 520.9, 0, 325.1, 0, 521.0, 249.7, 0, 0, 1);
	vector<Point3d> p1s3d, p2s3d;
	for(auto m : matches)
	{
		Point2d p12d = kp1[m.queryIdx].pt;
		unsigned short pixel1 = img3.ptr<unsigned short>((int)p12d.y)[(int)p12d.x];
		Point2d p22d = kp2[m.trainIdx].pt;
		unsigned short pixel2 = img4.ptr<unsigned short>((int)p22d.y)[(int)p22d.x];
		
		if(pixel1 == 0 || pixel2 == 0)	continue;
		
		double depth = pixel1 / 5000.0;		
		Point2d pNor2d = pixelToNor(p12d, k);		
		Point3d p3d(pNor2d.x*depth, pNor2d.y*depth, depth);
		p1s3d.push_back(p3d);
		
		depth = pixel2 / 5000.0;
		pNor2d = pixelToNor(p22d, k);		
		p3d = Point3d(pNor2d.x*depth, pNor2d.y*depth, depth);
		p2s3d.push_back(p3d);		
	}
	
	//ICP估计
	Mat R, t;
	poseEstimate3d3d(p1s3d, p2s3d, R, t);
	cout << "R :\n" << R << endl << "t : " << t.t() << endl;;
	
	return 0;
}

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
课程目的:OpenCV是应用非常广泛的开源视觉处理库,在图像处理、计算机视觉和自动驾驶中有着非常重要的作用。课程设计特色:(课程当前为第一期)1、C++与Python双语教学Python语言是在计算机视觉中应用最多的一种语言,在工作中,深度学习模型的训练基本上都是使用Python语言编写的训练代码。OpenCV在这个过程中用于图像的预处理(例如图像读取、数据增强)和后处理,还可以用于显示处理的结果,功能强大,使用方便。但是在功能的部署的时候,不管是部署在服务端还是PC端,开发语言基本上用的是C++,所以如何有效的使用OpenCV进行模型或者功能的部署尤为重要。C++语言应用的好坏,在面试中可以看出一个面试者的工程实践能力的强弱,两种语言的开发掌握好了可以使工作如虎添翼。2、全模块讲解我出版了一本图书《学习OpenCV4:基于Python的算法实战》,虽然这本书是写的基于Python的算法实战,但是实际上这本书有详细的介绍算法的C++接口,还有一些C++方向的案例,是以Python为主。图书出版的时候就想双语写作,只是限于篇幅没有成行。本课程不仅采用双语教学,更是对C++的每个模块都做讲解,我们知道,很多的书其实只讲imgproc,如果你翻开一本书图像的形态学运算和图像滤波都是作为独立章节讲解的,那么这本书基本上就可以确定是只是讲解了imgproc模块,但是其他的模块在工作中也有很重要的作用。例如:core模块定义了C++的基本数据结构和基本运算(如四则运算);highgui模块是可视化与交互的模块;feature2d是特征点与特征匹配相关算法所在的模块;ml是机器学习相关的模块;dnn是深度学习相关的模块,可以使用OpenCV进行深度学习模型的部署。这些是很多的书和课程都不会讲的。3、讲解细致本课程会从环境搭建开始讲解,环境搭建尤为重要。从我多年的授课经验总结来看,如果只是给了代码,很多的入门用户环境问题处理不好的话,后面的学习很难进行下去,甚至会丧失学习的信心。4、会讲解C++和Python的开发语法问题是入门用户的一大难关,特别是C++语言。大学只是教授了C语言相关的内容,C++很多同学只懂一点皮毛,所以写代码步履维艰,我们在讲解代码的过程中会顺带讲解C++和Python的内容。我们还会讲解编译相关知识,还有库的装载与链接,这些是学校里不会教的,目前也几乎没有课程讲解。5、讲师经验丰富我讲解过C++和OpenCV的多个课程,广受学员好评。我出版过两本图书《深度学习计算机视觉实战》和《学习OpenCV4》,两本书都是细致入微的讲解,主要针对的就是初学者,所以能够很好的处理课程的难易程度。6、讲义准备充分讲义准备的充分细致,标识清楚明确,重点和疑难点突出。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值