[学习SLAM ]单目vo中的深度确定方法--三角测量

三角测量的目的是用来确定图片中某一个点的深度。为什么会有这样的需求呢?我们在前面的博客中提到了对极几何单应变换。在前面其实已经提到过了,在单目VO中,虽然我们可以通过本质矩阵单应矩阵恢复出相机变换的位姿,但是这两种方法确定的位姿变换是具有尺度不确定性的。在双目vo中,我们会首先使用三角测量恢复出深度信息,再进行位姿估计

因为基础矩阵与单应矩阵本身描述的是从一个2d平面到另一个2d平面的变换,无需3d深度信息,这两种变换都是正常进行的,因此自然就具有尺度不确定性。更加具体的讲,将基础矩阵与单应矩阵作用在一个齐次坐标(x,y,1)上时,此时,随意的将基础矩阵与单应矩阵进行一定尺度缩放,由于齐次坐标的尺度等价性,对最终的变换结果都不会产生影响。

三角测量

三角测量本身是由高斯提出,最早应用在天文地理领域,根据不同季节观察到的星星的角度,估计星星与我们的距离。

在相机几何中的应用,推导如下:

注意,三角测量依据的是同一个空间点不同时刻的投影到相机成像平面上的位置来确定这两个时刻时这个点的深度。

单目SLAM种,仅通过单张图像无法获得像素的深度信息,需要通过三角测量(Triangulation)(或三角化)的方法来估计地图点的深度。如图所示。

第一种思路

相机成像的几何描述我们可以理解如下的公式(世界坐标到像素坐标的转换):

其中K是相机内参,Rt是第二个相机在第一个相机的相机坐标系下的外参是此空间点在第一个相机的相机坐标系下的坐标。Z是空间点到相机光心的距离(也是相机坐标系下的z轴坐标)。是空间点在两个相机平面上的投影点。

  • 首先做出如下定义(其中是归一化的相机坐标(X/Z,Y/Z,1)):

  • 带入如上定义可得:

  • 由于我们已经通过本质矩阵分解或者单应矩阵分解获得了Rt,此时想求的是两个特征点的深度,即上式中的,此时,可通过如下操作分别求出,首先求解,上式两边同时左乘x2^,也就是两侧同时与做外积:

如上,可以直接求出的深度Z1了,然后Z2也可以很轻松地求出。

 

代码实现(自己实现)

首先是上述思路的解法

bool depthFromTriangulation(
        const SE3& T_search_ref,
        const Vector3d& f_ref,
        const Vector3d& f_cur,
        double& depth)
{
    Matrix<double,3,2> A;
    A << T_search_ref.rotation_matrix()*f_ref, f_cur;
    const Matrix2d AtA = A.transpose()*A;
    if(AtA.determinant() < 0.000001)
        return false;
    const Vector2d depth2 = - AtA.inverse()*A.transpose()*T_search_ref.translation();
    depth = fabs(depth2[0]);
    return true;
}

 


第二种思路

然后此处使用的求解方法是法则。这是另一种求解三角化的方式,推导如下:

对公式两侧同时乘以,得到:

公式两侧同时乘以,得到:

对于上述两个公式组成的方程组,利用克莱默法则求解

克莱默法则是,对于这样的方程,如果A的行列式不为0,方程可以通过如下方式求解:

其中A的第j列被b替换后得到的新的矩阵。

 
// 方程
    // d_ref * f_ref = d_cur * ( R_RC * f_cur ) + t_RC
    // => [ f_ref^T f_ref, -f_ref^T f_cur ] [d_ref] = [f_ref^T t]
    //    [ f_cur^T f_ref, -f_cur^T f_cur ] [d_cur] = [f_cur^T t]
    // 二阶方程用克莱默法则求解并解之
    Vector3d t = T_R_C.translation();
    Vector3d f2 = T_R_C.rotation_matrix() * f_curr; 
    Vector2d b = Vector2d ( t.dot ( f_ref ), t.dot ( f2 ) );
    // 此处计算出系数矩阵A
    double A[4];
    A[0] = f_ref.dot ( f_ref );
    A[2] = f_ref.dot ( f2 );
    A[1] = -A[2];
    A[3] = - f2.dot ( f2 );
    // 此处计算A的行列式
    double d = A[0]*A[3]-A[1]*A[2];
    Vector2d lambdavec = 
        Vector2d (  A[3] * b ( 0,0 ) - A[1] * b ( 1,0 ),
                    -A[2] * b ( 0,0 ) + A[0] * b ( 1,0 )) /d;
    Vector3d xm = lambdavec ( 0,0 ) * f_ref;
    Vector3d xn = t + lambdavec ( 1,0 ) * f2;
    Vector3d d_esti = ( xm+xn ) / 2.0;  // 三角化算得的深度向量
    double depth_estimation = d_esti.norm();   // 深度值
  1.  


代码实现(使用opencv提供的接口)

 
void triangulation ( 
    const vector< KeyPoint >& keypoint_1, 
    const vector< KeyPoint >& keypoint_2, 
    const std::vector< DMatch >& matches,
    const Mat& R, const Mat& t, 
    vector< Point3d >& points )
{
    //相机第一个位置处的位姿
    Mat T1 = (Mat_<float> (3,4) <<
        1,0,0,0,
        0,1,0,0,
        0,0,1,0);
    //相机第二个位置处的位姿
    Mat T2 = (Mat_<float> (3,4) <<
        R.at<double>(0,0), R.at<double>(0,1), R.at<double>(0,2), t.at<double>(0,0),
        R.at<double>(1,0), R.at<double>(1,1), R.at<double>(1,2), t.at<double>(1,0),
        R.at<double>(2,0), R.at<double>(2,1), R.at<double>(2,2), t.at<double>(2,0)
    );
    
    // 相机内参
    Mat K = ( Mat_<double> ( 3,3 ) << 520.9, 0, 325.1, 0, 521.0, 249.7, 0, 0, 1 );
    vector<Point2f> pts_1, pts_2;
    for ( DMatch m:matches )
    {
        // 将像素坐标转换至相机平面坐标,为什么要这一步,上面推导中有讲
        pts_1.push_back ( pixel2cam( keypoint_1[m.queryIdx].pt, K) );
        pts_2.push_back ( pixel2cam( keypoint_2[m.trainIdx].pt, K) );
    }
    
    Mat pts_4d;
    //opencv提供的三角测量函数
    cv::triangulatePoints( T1, T2, pts_1, pts_2, pts_4d );
    
    // 转换成非齐次坐标
    for ( int i=0; i<pts_4d.cols; i++ )
    {
        Mat x = pts_4d.col(i);
        x /= x.at<float>(3,0); // 归一化
        Point3d p (
            x.at<float>(0,0), 
            x.at<float>(1,0), 
            x.at<float>(2,0) 
        );
        points.push_back( p );
    }
}
 
Point2f pixel2cam ( const Point2d& p, const Mat& K )
{
    return Point2f
    (
        ( p.x - K.at<double>(0,2) ) / K.at<double>(0,0), 
        ( p.y - K.at<double>(1,2) ) / K.at<double>(1,1) 
    );
}
  1.  

代码地址:https://github.com/xhy3054/myslam/tree/master/04-VO-feature/triangulation

 


第三种思路(最小二乘法求解深度)

  • 对于某个路标点y,在若干个关键帧中可以观测到

  • 首先,对于,是空间点在世界坐标系中的齐次坐标。每次观测为,这个是相机成像平面的归一化坐标

  • 我们假设投影矩阵为,这个是从world系到camera系的投影

  • 所以,投影关系为:

其中为观测点的深度值

  • 根据上面我们可以知道下式:

其中的第三行(其中角标T仅仅代表是一个横向量)

  • 我们再将上式带入投影变换的前两行,就得到:

  • 每次观测都可以提供两个这样的方程,将y看做未知量,并将其移到等式一侧,可以得到下式:

  • 于是,y为D零空间的一个非零元素。

 

最小二乘求解

对于上面问题,由于,在观测时往往是大于等于两次的,很有可能D满秩(4),也就是无零空间。

  • 此时我们会寻找上式的最小二乘解:

  • 求解上述这个最小二乘问题,我们可以通过对进行奇异值分解来求解。

  • 其中为奇异值,并且会由大到小排列(它们对应的特征向量是一组单位正交基),我们找到最小(后面)的那个奇异值,它对应的特征向量,将其转换为齐次坐标,前三维就是y坐标的解了。

通常我们求出来会验证一下该解的有效性,判断条件是。若该条件成立,则认为三角化有效。

 

代码

 
// vins中初始化sfm时根据一个三维点在两帧中的投影位置确定三维点位置
void GlobalSFM::triangulatePoint(Eigen::Matrix<double, 3, 4> &Pose0, Eigen::Matrix<double, 3, 4> &Pose1,
						Vector2d &point0, Vector2d &point1, Vector3d &point_3d)
{
	Matrix4d design_matrix = Matrix4d::Zero();
	design_matrix.row(0) = point0[0] * Pose0.row(2) - Pose0.row(0);
	design_matrix.row(1) = point0[1] * Pose0.row(2) - Pose0.row(1);
	design_matrix.row(2) = point1[0] * Pose1.row(2) - Pose1.row(0);
	design_matrix.row(3) = point1[1] * Pose1.row(2) - Pose1.row(1);
	Vector4d triangulated_point;
	triangulated_point =
		      design_matrix.jacobiSvd(Eigen::ComputeFullV).matrixV().rightCols<1>();
	point_3d(0) = triangulated_point(0) / triangulated_point(3);
	point_3d(1) = triangulated_point(1) / triangulated_point(3);
	point_3d(2) = triangulated_point(2) / triangulated_point(3);
}
  1.  


使用概率方法更新矫正深度值

从上述讲述中,我们已经知道通过两帧图像的匹配点,可以得到一个等式,可以计算出这一点的深度值,所以,如果有n副图像进行匹配,那我们会得到n-1个等式。此时我们就可以计算出这一点的n-1个空间位置的测量值。

好的测量值是符合正态分布的,噪声符合均匀分布,此时我们可以通过一些概率的方法对多次测量结果进行融合,得到更鲁棒的结果。

  • 在SVO中,使用贝叶斯方法(最大后验概率)进行更新

  • 在LSD中,使用卡尔曼滤波进行深度测量值的滤波

13章单目深度滤波器

考虑图像 [公式][公式] ,以作图为参考,右图的变换矩阵为 [公式] 。相机光心为 [公式][公式] 。在 [公式] 中有特征点 [公式] ,对应 [公式] 中有特征点 [公式] 。理论上直线 [公式][公式] 在场景中会相交于一点 [公式] 。该点即两个特征点所对应的地图点在三维场景中的位置。由于噪声的影响,这两条直线往往无法相交。因此,通过最小二乘求解。

按照对极几何中的定义,设 [公式] 为两个特征点的归一化坐标,那么它们满足:

[公式]

通过对极约束知道了 [公式] ,想要求解的是两个特征点的深度 [公式] 。当然这两个深度是可以分开求的,如,先求 [公式] ,那么对上式左乘一个 [公式] ,得:

[公式]

该式左侧为零,右侧可看成 [公式] 的一个方程,可以根据它直接求得 [公式] 。有了 [公式][公式] 也非常容易求出。于是,得到了两帧下的点的深度,确定了它们的空间坐标。由于噪声的存在,估得的 [公式] 不一定精确使上式为零,所以常见的做法是求最小二乘解而不是零解。

 // 用三角化计算深度
    SE3 T_R_C = T_C_R.inverse();//T_C_R reference to current transformation matrix
    Vector3d f_ref = px2cam( pt_ref );//参考帧的像素坐标转换到相机坐标系的坐标
    f_ref.normalize();//参考帧上的点在相机坐标系下的归一化的坐标x_1
    Vector3d f_curr = px2cam( pt_curr );//当前帧的像素坐标转换到相机坐标系的坐标
    f_curr.normalize();//当前帧上的点在相机坐标系下的归一化的坐标x_2
    
    // 方程
    // d_ref * f_ref = d_cur * ( R_RC * f_cur ) + t_RC//d_ref=x_1,对应s_1x_1=s_2(R*x_2)+t
    // => [ f_ref^T f_ref, -f_ref^T f_cur ] [d_ref] = [f_ref^T t]//s_1x_1^Tx_1=s_2x_1^Tx_2+x_1^Tt
    //    [ f_cur^T f_ref, -f_cur^T f_cur ] [d_cur] = [f_cur^T t]//s_2x_2^Tx_1=s_2x_2^Tx_2+x_2^Tt
    // 二阶方程用克莱默法则求解并解之
    Vector3d t = T_R_C.translation();//平移向量t
    Vector3d f2 = T_R_C.rotation_matrix() * f_curr; //Rx_2
    Vector2d b = Vector2d ( t.dot ( f_ref ), t.dot ( f2 ) );//tx_1,tRx_2
    double A[4];
    A[0] = f_ref.dot ( f_ref );//x_1*x_1
    A[2] = f_ref.dot ( f2 );//x_1Rx_2
    A[1] = -A[2];//-x_1Rx_2
    A[3] = - f2.dot ( f2 );//-x_1Rx_2*x_1Rx_2
    double d = A[0]*A[3]-A[1]*A[2];//
    Vector2d lambdavec = 
        Vector2d (  A[3] * b ( 0,0 ) - A[1] * b ( 1,0 ),
                    -A[2] * b ( 0,0 ) + A[0] * b ( 1,0 )) /d;
    Vector3d xm = lambdavec ( 0,0 ) * f_ref;
    Vector3d xn = t + lambdavec ( 1,0 ) * f2;
    Vector3d d_esti = ( xm+xn ) / 2.0;  // 三角化算得的深度向量
    double depth_estimation = d_esti.norm();   // 深度值
    
运用克莱姆法则可以很有效地解决以下方程组。

运用克莱姆法则可以很有效地解决方程组。

 

其他测距方法

  1. 主动方法
    • 结构光: 光已知空间方向的投影光线的集合称为结构光,结构光激光散斑通过投射具有高度伪随机性的激光散斑,会随着不同距离变换不同的图案,对三维空间直接标记,通过观察物体表面的散斑图案就可以判断其深度。
    • ToF: 飞行时间法,通过连续发射光脉冲(一般是不可见光),到被观测物体上,然后接收从物体反射回去的光脉冲,通过探测光脉冲的往返飞行时间来计算被测物体距离
    • LIDAR: 激光雷达
  2. 使用深度学习构建神经网络对图像深度进行预测
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值