Geometric Correspondence Network for Camera Motion Estimation

该论文介绍了使用Geometric Correspondence Network (GCN)进行相机运动估计的方法,通过CNN学习特征点和描述子,利用RGB-D数据进行监督学习。V1采用CNN+RCNN,而V2则借鉴SuperPoint简化网络并构建实时SLAM系统。在V2中,网络运行速度更快,适用于无人机上的实时应用。尽管在RGB-D数据上表现出色,但在其他场景的泛化能力还需进一步验证。
摘要由CSDN通过智能技术生成

论文:
V1:Geometric Correspondence Network for Camera Motion Estimation
Jiexiong Tang, 2018, IEEE ROBOTICS AND AUTOMATION LETTERS
V2:GCNv2: Efficient Correspondence Prediction for Real-Time SLAM
github:https://github.com/jiexiong2016/GCNv2_SLAM

主要思想:
用CNN学习特征点和描述子的提取,利用RGB-D深度信息、相机真实相对位姿,通过3D-2D投影关系进行监督学习。
V1版本采用CNN+RCNN得到原图尺寸(resize成ResNet可接受大小320*240)中每个像素点为keypoint的概率,以及每个像素点的描述子向量(256*1)
在V2版本中借鉴SuperPoint思想,简化网络结构,并构建与ORBSLAM2相同的二进制描述子来加速匹配,并结合ORBSLAM2,替换掉特征提取部分,构建了TX2上实时的GCNv2-SLAM.

做法:
V1:

  1. 输入:两张有重叠部分的图像,输出:图像中每个像素是特征点的概率和像素点的描述子向量。

  2. 监督信息的产生
    训练数据:
    通过Harris角点对A图像进行检测,为了生成足够的特征点,运行两次检测过程,第一次用全图进行检测,第二次将图像分割成4*4的小块进行检测。
    对于A图中检测到的角点,利用AB图之间的相对位姿关系,进行warp
    y i ∗ = π − 1 (

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值