视觉SLAM习题ch3

3.5 假设有一个大的Eigen矩阵,想把他的左上角3*3的块取出来,然后赋值为I3*3,请编程实现。

思路如下
尝试产生一个随机方阵,对其使用两个循环实现目的。
编写程序如下

#include <iostream>
#include <cmath>
#include <cstdlib>
#include <Eigen/Core>

using namespace std;

int main()
{ 
  cout << "Ran_max:" << RAND_MAX << endl;
   srand((unsigned)time(NULL));
   const int n =  (1 + rand() % 10);
   cout << n << endl;
   Eigen::Matrix<double, n, n>  matrix_nn;
   matrix_nn = Eigen::Matrix::Random(n,n);
   if (n < 3)
     cout << "Wrong size" << endl;
   else
     for (int i = 0; i <= 2; i++)
     {
       for (int j = 0; j <= 2; j++)
	 matrix_nn(i,j) = 1;
     }
     cout << "new matrix_nn = " << matrix_nn << endl;
   return 0;
}

程序未能成功,报错信息提示Eigen::Matrix::Random不能接受变量参数,意味着对于Eigen矩阵的定义一定要明确。问题核心即是两个for循环,因此不再修改本程序。

3.7 设有小萝卜一号和小萝卜二号位于世界坐标系中。小萝卜一号的位姿为q
[0.35,0.2,0.3,0.1],t2=[0.3,0.1,0.1](q的第一项为实部。请把q归一化后再
进行计算)。这里的q和t表达的是Tcw,也就是世界坐标系到相机坐标系的变
换关系。小萝卜二号的位姿为q2=[-0.5,0.4,-0.1,0.2],t=[-0.1,0.5,0.3]现在,小萝卜一号看到某个点在自身的坐标系下坐标为p=[0.5,0,0.2],求该向量在小萝卜二号坐标系下的坐标。请编程实现。

思路如下
先找到p点在世界坐标系下的坐标,再将其转换至二号机坐标系下即可。难点在于对四元数、角轴、旋转矩阵和旋转向量之间的转换。可参考文章Eigen中四元数、欧拉角、旋转矩阵、旋转向量之间的转换.

编写程序如下

#include <iostream>
#include <Eigen/Core>
#include <Eigen/Geometry>

using namespace std;

int main()
{
  //四元数转旋转矩阵
  Eigen::Quaterniond q_1(0.35, 0.2, 0.3, 0.1);
  Eigen::Matrix3d r_m1;
  q_1.normalize();
  r_m1 = q_1.matrix();
  cout << "r_m1 =\n" << r_m1 << endl;
  
  Eigen::Quaterniond q_2(-0.5, 0.4, -0.1, 0.2);
  Eigen::Matrix3d r_m2;
  q_2.normalize();
  r_m2 = q_2.matrix();
  cout << "r_m2 =\n" << endl;
  
  //旋转矩阵转变换矩阵  
  Eigen::Isometry3d T_1 = Eigen::Isometry3d::Identity();
  T_1.rotate(r_m1);
  Eigen::Vector3d t1(0.3, 0.1, 0.1);
  T_1.pretranslate(t1);
  cout << "T_1 =\n" << T_1.matrix() << endl;
  
  Eigen::Isometry3d T_2 = Eigen::Isometry3d::Identity();
  T_2.rotate(r_m2);
  Eigen::Vector3d t2(-0.1, 0.5, 0.3);
  T_2.pretranslate(t2);
  cout << "T_2 =\n" << T_2.matrix() << endl;
  
  //对T_2求逆,实际可以直接使用T.inverse()函数
  Eigen::Matrix3d r_m2T = r_m2.transpose();
  Eigen::Vector3d product;
  product = r_m2T * t2;
  
  for (int i = 0; i <= 2; i++)
  {
    for (int j = 0; j <= 2; j++)
    {
      T_2(i,j) = r_m2T(i,j);
    }
  }
  
  for (int i = 0; i <=2; i++)
    T_2(i,3) = -1 * product(i);
  
  cout << "after inverse T_2 =\n" << T_2.matrix() << "\n";
  
  //求p_wc1在世界坐标下的坐标,再转换至二号机坐标
  Eigen::Vector4d p_c1(0.5, 0, 0.2, 1);
  Eigen::Vector4d p_w;
  Eigen::Vector4d p_c2;
  p_w = T_1 * p_c1;
  p_c2 = T_2 * p_w;
  cout << "the location of p in robot 2 =\n" << p_c2 << "\n";
  return 0;
}

首先程序有错误在于,求错了转换矩阵,即T_1、T_2实际应为T_c1w和T_c2w,但是对题目理解有误,求成了T_wc1和T_wc2
其次,对Eigen库不熟悉,很多计算如求T逆,四元数直接转T矩阵等,都可以使用成员函数完成。
参考文章《视觉slam十四讲》第3讲课后习题.

四元数直接求T

Eigen::Isometry3d T = Eigen::Isometry::Idnetity();
T.rotate(q);
T.pretranslate(t);
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 《视觉SLAM十四讲》第三章主要介绍了视觉SLAM中的关键技术——特征提取和描述子。本章首先介绍了特征点的概念和特征点的选择原则。特征点即图像中具有鲁棒性和区分度的点,可以通过对其进行检测和描述来进行特征匹配和跟踪。在进行特征提取时,作者介绍了常见的特征检测算法,如Harris角点检测、SIFT和SURF算法等,并对其进行了比较和分析。 接着,本章详细阐述了特征描述子的概念和作用。特征描述子是对特征点周围区域的图像信息进行编码,以实现特征匹配和跟踪。常见的特征描述子包括SIFT、SURF和ORB等。作者从描述子的表示形式、计算方式和匹配方法等方面进行了介绍,并对它们进行了比较和评价。同时,还提到了基于二进制描述子的方法,如BRIEF、BRISK和FREAK等。 在特征匹配方面,本章介绍了特征描述子匹配的基本原理和流程。以基于特征点的视觉SLAM为例,作者详细解释了特征点的匹配过程,包括特征点的选择、特征点描述子匹配和筛选等步骤。并介绍了如何通过验证特征点的三角化和PnP求解来估计相机的位姿。 此外,本章还介绍了一些特定场景下的特征点选择和提取策略,如动态环境下的特征点追踪和关键帧选择等。 综上所述,《视觉SLAM十四讲》第三章主要介绍了特征提取和描述子在视觉SLAM中的重要性和应用。通过对特征点的检测和描述,可以实现特征匹配和跟踪,为后续的相机位姿估计和建图提供基础。该章内容详细且通俗易懂,对于学习和理解视觉SLAM有着重要的指导作用。 ### 回答2: 《视觉SLAM十四讲-Ch3》主要介绍了视觉SLAM(同时定位与建图)技术的基本原理和实现方法。本章主要涵盖了三维几何表示和变换、相机模型和相机姿态以及特征提取与匹配等内容。 首先,本章介绍了三维几何表示和变换的概念。通过介绍欧氏空间中的点、向量和坐标变换,深入解释了相机在三维空间中的位置和朝向的表示方式。同时,引入了齐次坐标和投影矩阵的概念,为后续的相机模型和姿态估计打下了基础。 其次,本章详细讲解了相机模型和相机姿态的原理与应用。其中,介绍了针孔相机模型,分析了图像坐标和相机坐标之间的映射关系。通过投影矩阵的推导,给出了透视投影和仿射投影的公式,并解释了相机焦距和主点的含义。此外,还介绍了如何通过计算相机的外参矩阵来估计相机的姿态,以及如何将图像坐标转换为相机坐标。 最后,本章介绍了特征提取与匹配的技术。首先,介绍了角点和边缘点的概念,以及如何利用差分和梯度计算来检测图像中的角点和边缘点。然后,介绍了如何通过特征描述符来表示图像中的特征点,并通过特征匹配算法找到两幅图像之间的对应关系。特征提取与匹配是视觉SLAM中非常重要的步骤,对于后续的相机定位和建图至关重要。 综上所述,《视觉SLAM十四讲-Ch3》通过系统地介绍了视觉SLAM技术的基本概念和实现方法,包括三维几何表示和变换、相机模型和相机姿态的原理与应用,以及特征提取与匹配的技术。这些内容为读者深入理解和掌握SLAM技术提供了很好的基础。 ### 回答3: 视觉SLAM(Simultaneous Localization and Mapping)是一种通过计算机视觉技术,实现机器智能的同时实时定位和地图构建的方法。在《视觉SLAM十四讲》第三讲中,主要介绍了视觉SLAM的基本概念和关键技术。 首先,讲解了视觉SLAM的理论基础,包括自我运动估计和地图构建两个部分。自我运动估计是通过相邻帧之间的视觉信息,计算相机在三维空间中的运动,从而实现机器的实时定位;地图构建是通过对场景中特征点的观测和跟踪,建立起一个三维空间中的地图。这两个过程相互影响,通过不断迭代优化,实现高精度的定位和地图构建。 接着,讲解了基于特征的视觉SLAM算法。特征提取与描述是建立视觉SLAM系统的关键步骤,通过提取场景中的特征点,并为其生成描述子,来实现特征点的匹配和跟踪。同时,还介绍了一些常用的特征点提取和匹配算法,如FAST、SIFT等。 在SLAM框架方面,本节还介绍了基于视觉的前端和后端优化。前端主要负责实时的特征跟踪和估计相机运动,后端则是通过优化技术,对前端输出的轨迹和地图进行优化求解,从而提高系统的精度和鲁棒性。 最后,本节提到了几个视觉SLAM的应用场景,如自主导航、增强现实等。这些应用对于实时高精度的定位和地图建立都有着很高的要求,因此,视觉SLAM的技术在这些领域有着广泛的应用前景。 总的来说,《视觉SLAM十四讲》第三讲对视觉SLAM的基本概念和关键技术进行了系统的介绍。理论基础、特征提取与描述、SLAM框架和应用场景等方面的内容都给出了详细的解释和案例,有助于读者更好地理解和应用视觉SLAM技术。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值