论文解析 - SLAM++: Simultaneous Localisation and Mapping at the Level of Objects

SLAM++: Simultaneous Localisation and Mapping at the Level of Objects

0. 论文概况

引用:331, CVPR2013

Renato F. Salas-Moreno , 来自英国帝国理工学院Andrew J. Davison实验室

 

带着问题看论文:

如果要我自己来实现这个方案,它既然是基于深度图像来做的,并且在第一帧中提取了地面,那么首先我需要检测到每一个单独的点块,去与数据库中的3D模型一一做ICP,这个过程中获得最后效果最好的种类,并且得到其姿态。

那么如何获得单独的点块?是真的把地面抠掉然后将分离的部分作为一块吗?单帧有可能得到三维物体姿态吗?

假设得到了,那么可以根据现有的相机姿态建立到地图中去,那么现有相机姿态是从何而来?即相对于上一帧的相机姿态变换如何估计得到?既然并非稠密点云地图,那么就没办法用ICP对点云匹配。而且需要保证视野中至少有地图中的一个物体,那么地图为空的时候拿什么去算呢。

这两个问题解决了,就真正理解了这个过程,接下来仔细研究一下,以及背后的数学表达。

 

1. Introduction

该论文提出的SLAM特点为具备先验知识,先验知识可以重复性地呈现,使得实时3D重建和简单的关于物体位置的图优化地图成为可能。

随着新的测量到达,这个图将不断被优化,同时获得最新、稠密且准确的下一个相机测量的位置的估计。这些估计将被用于鲁棒的相机跟踪和为下一步物体识别做的主动区域搜索。

特点还包括:相比稠密点云地图,对地图存储量做了巨大压缩。而且容易产生大规模回环,重定位和特殊领域先验下使用的巨大潜力。

 

2. 手持传感器的实时SLAM

介绍了一些related-works

 

3.方法

图2. SLAM++架构介绍.

3.1 Creating an Object Database

首先将重复出现的物体通过交互式扫描,使用KinectFusion来建立3D模型。

 

3.2 SLAM Map Representation

世界呈现用的图模型,每一个节点存放的要么是物体j的姿态(包括相对固定世界参考系的旋转和平移),或者是相机在时间i时的姿态。每一个物体节点给定了一个物体种类,每个物体在相机中的姿态,即测量 作为一个约束因子存储于图中,连接相机姿态和物体姿态。其他因子则可以选择性地添加进图:包括相机之间的运动估计,以及特定种类物体必须在地面上等。

(地图里面物体的数据结构里用李群来存放物体相对于世界坐标系的位置姿态或者相对于相机某个时间戳时的姿态的相对姿态。)

图优化的详情将在3.5中叙述。

 

3.3 Real-Time Object Recognition

采用论文[6]中的方法来识别3D物体的6DoF姿态,通过网格表示在深度图像中。

根据论文方法,使用Generalised Hough Transform,投票表决物体的位置。

[ 此处可以重点理解一下如何表示的. ]

该方法中物体被检测到后将同时通过参数空间中票数的积累来被定位。投票基于点对特征关联;物体表面的带朝向点对的相关联位置和向量的四维度描述子。带向量估计的点集基于来自深度相机的双边估计图像而随机采样。这些采样被组成对,产生各种可能来生成PPFs,作为包含相似PPF的6DoF模型配置的票选。

[ 接

  • 2
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值