论文:
V1:Geometric Correspondence Network for Camera Motion Estimation
Jiexiong Tang, 2018, IEEE ROBOTICS AND AUTOMATION LETTERS
V2:GCNv2: Efficient Correspondence Prediction for Real-Time SLAM
github:jiexiong2016/GCNv2_SLAM
主要思想:
用CNN学习特征点和描述子的提取,利用RGB-D深度信息、相机真实相对位姿,通过3D-2D投影关系进行监督学习。
V1版本采用CNN+RCNN得到原图尺寸(resize成ResNet可接受大小320*240)中每个像素点为keypoint的概率,以及每个像素点的描述子向量(256*1)
在V2版本中借鉴SuperPoint思想,简化网络结构,并构建与ORBSLAM2相同的二进制描述子来加速匹配,并结合ORBSLAM2,替换掉特征提取部分,构建了TX2上实时的GCNv2-SLAM.
做法:
V1:
1. 输入:两张有重叠部分的图像,输出:图像中每个像素是特征点的概率和像素点的描述子向量。
2. 监督信