总结SLAM论文主要创新点和论文分类 —— 持续更新ing

本章编辑始于2020年12月24日,研究僧已有一年之余,之前也看过很多关于SLAM的文章,都是看了就过去了,没有将文章的主要创新点记录,在此章记录的目的主要是记录今后所看文章的主要创新点,有助于归纳文章、全面认识SLAM、提炼新的创新...

更新时间 2021年1月11日

1. DOT:Visual SLAM的动态对象跟踪

DOT: Dynamic Object Tracking for Visual SLAM

在这里插入图片描述

效果图

文章发表时间:2020年9月
文章下载链接:DOT: Dynamic Object Tracking for Visual SLAM
传感器:双目相机、RGB-D相机
创新点:

  1. 通过结合实例分割和多视图几何方程来稳健地检测和跟踪运动对象
  2. 与其他系统不同,DOT的掩码跟踪降低了进行分割的速度(通常涉及较高的计算成本),从而降低了有关现有技术的计算需求。

2. 动态环境中使用静态点加权的RGB-D SLAM

RGB-D SLAM in Dynamic Environments Using Static Point Weighting

在这里插入图片描述

流程图

文章发表时间:2017年1月
文章下载链接:RGB-D SLAM in Dynamic Environments Using Static Point Weighting
传感器:RGB-D相机
创新点:

  1. 提出了一种实时RGB-D视觉测距法,该方法可以处理高度动态的环境,例如TUM数据集中的“行走”序列。该方法使用前景深度边缘点来计算成对的点云配准。
  2. 提出了一种基于深度边缘对应距离的鲁棒静态加权策略。将静态加权策略融合到强度辅助ICP中,我们的视觉里程计系统可以稳固地处理动态环境。
  3. 还集成了闭环检测和地图优化功能,从而形成了适用于动态环境的实时SLAM系统。

3. 基于密集场景流的自动车辆粗到细刚性运动目标检测

Dense Scene Flow Based Coarse-to-Fine Rigid Moving Object Detection for Autonomous Vehicle

在这里插入图片描述

流程图

文章发表时间:2017年11月
文章下载链接:Dense Scene Flow Based Coarse-to-Fine Rigid Moving Object Detection for Autonomous Vehicle
传感器:双目相机
创新点:

  1. 提出了一种有效的从粗到精算法,用于自动驾驶动态场景中的运动目标检测。
  2. 提出了一种用于两阶段粗细运动物体检测的流水线;
  3. 提出了一种基于密集场景流的条件随机场模型;
  4. 建模近似Mahalanobis归一化,以减少由视差估计引起的投影噪声;
  5. 进行了实验,以评估通过去除移动区域以及移动物体检测对视觉里程计的有效性和改进

4. I3MS:智能多传感器多基线映射系统

I3MS: Intelligent Multi-Sensor Multi-Baseline Mapping System

在这里插入图片描述

流程图

文章发表时间:2018年1月
文章下载链接:I3MS: Intelligent Multi-Sensor Multi-Baseline Mapping System
传感器:三目相机
创新点:

  1. 使用立体视觉创建了一种新颖,智能,动态的自主导航地图系统,该系统被称为智能多传感器多基线映射系统
  2. 通过使用模糊逻辑系统(FLS)来调整立体视觉参数来处理动态环境

5. 3D地图同时更新的动态障碍物剔除

Dynamic Obstacles Rejection for 3D Map Simultaneous Updating

在这里插入图片描述

效果图

文章发表时间:2018年1月
文章下载链接:Dynamic Obstacles Rejection for 3D Map Simultaneous Updating
传感器:RGB-D相机
创新点:

  1. 提出了一种简单而高效的方法来消除3D点云图更新的动态对象的虚假痕迹。通过使用KD树对视图重叠进行双向搜索来获得伪迹。
  2. 针对由于RGB-D摄像机的限制而使运动物体遮挡部分背景的情况,我们设计了一种基于光线跟踪原理的滤镜,以补充整个点云图中丢失的背景
  3. 提供了一种通用的3D地图更新方法,该方法可以轻松集成到任何SLAM或重建系统中,并验证它适用于机器人导航和3D重建中的静态和动态环境。

更新时间 2020年12月28日

1. 用于动态环境中运动对象检测的相机姿态估计

Moving object detection for camera pose estimation in dynamic environments

在这里插入图片描述

流程图

文章发表时间:2020年10月
文章下载链接:Moving object detection for camera pose estimation in dynamic
environments

传感器:RGB-D相机
创新点:

  1. 提出了一种基于RGB-D图像采集的三阶段程序。首先,YOLOv3模型从RGB图像中检测目标对象。其次,通过融合深度图像的信息,使用k-means算法对目标特征进行聚类。最后,基于多视图几何理论在动态环境下识别运动对象

2. 动态环境中基于SSD算法的改进视觉里程计

Improved Visual Odometry Based on SSD Algorithm in Dynamic Environment

在这里插入图片描述

文章发表时间:2020年7月
文章下载链接:Improved Visual Odometry Based on SSD Algorithm in Dynamic Environment
传感器:单目相机
创新点:

  1. 利用单镜头多框检测器(SSD)算法检测场景中的动态目标,然后构造多层光流,通过光流跟踪去除动态特征点 ——检测动态物体的方法
  2. 对场景中的静态特征点进行匹配并计算出姿态,以解决大量匹配导致的问题

3. 基于遮挡累积的动态环境中视觉里程表的运动对象检测

Moving object detection for visual odometry in a dynamic environment based on occlusion accumulation

在这里插入图片描述
文章发表时间:2020年8月
文章下载链接:Moving object detection for visual odometry in a dynamic environment based on occlusion accumulation
传感器:RGB-D相机
创新点:

  1. 提出了一种使用RGB-D图像的简单运动物体检测算法。所提出的算法不需要估计背景模型。取而代之的是,它使用遮挡模型,该模型使我们能够估计背景上的相机姿态,并与主导场景的运动对象相融合
  2. 算法允许将运动物体检测和视觉测距法(VO)分开,从而可以在动态情况下结合运动物体检测使用任意鲁棒的VO方法,而动态环境中的其他VO算法则是不可分割的

4. 动态环境中鲁棒RGBD-SLAM的运动对象分割与检测

Moving Object Segmentation and Detection for Robust RGBD-SLAM in Dynamic Environments

在这里插入图片描述

流程图

文章发表时间:2020年9月
文章下载链接:Moving Object Segmentation and Detection for Robust RGBD-SLAM in Dynamic Environments
开源链接:不开源
传感器:RGB-D相机
创新点:

  1. 提出了一种使用RGB-D相机数据的新型运动检测和分割方法,以提高动态环境中基于特征的RGB-D SLAM的定位精度
  2. 为了克服语义分割网络产生的分割不足的问题,提出了一种掩膜修复方法,以保证对象分割的完整性
  3. 提出了一种基于光流的运动检测方法来检测移动摄像机中的动态物体,从而通过去除不相关的信息进行鲁棒的检测

5. 动态环境的多对象单目SLAM

Multi-object Monocular SLAM for Dynamic Environments

在这里插入图片描述

流程图

文章发表时间:2020年5月
文章下载链接:Multi-object Monocular SLAM for Dynamic Environments
开源链接:不开源
传感器:单目相机
创新点:

  1. 多姿态图公式化,可恢复针对多体SLAM问题的度量尺度解决方案
  2. 第一个实用的单眼多体SLAM系统,它可以在统一的度量标准范围内执行动态多对象和自我定位。
  3. 利用单视图度量技术进行尺度明确的静态特征对应估计

更新时间 2020年12月24日

1. 适用于大规模动态环境的鲁棒稠密地图

Robust Dense Mapping for Large-Scale Dynamic Environments

在这里插入图片描述

效果图

文章发表时间:2018年5月
文章下载链接:Robust Dense Mapping for Large-Scale Dynamic Environments
开源链接:http://andreibarsan.github.io/dynslam
传感器:双目相机
创新点:

  1. 一种针对大型动态城市环境的基于立体声的稠密地图算法。研究了两种不同的最新实时立体声匹配技术:有效的大规模立体声匹配(ELAS)[5]和DispNet ,同时分别重建了静态背景,运动对象和可能运动但当前静止的对象,这对于高级移动机器人任务(如在拥挤环境中的路径规划)是理想的。
  2. 使用实例感知语义分割和稀疏场景流将对象分类为背景,移动或潜在移动,从而确保系统能够对可能从静态转换为动态的对象(例如停放的汽车)进行建模。给定根据视觉测距法估计的相机姿势,通过融合从立体声输入中计算出的深度图,可以分别重建背景和(可能)移动的物体。
  3. 进一步开发了一种地图修剪技术,以提高重建精度并减少内存消耗,从而提高可伸缩性。

2. Co-Fusion:多个对象的实时分割,跟踪和融合

Co-Fusion: Real-time Segmentation, Tracking and Fusion of Multiple Objects

在这里插入图片描述

效果图

文章发表时间:2017年5月
文章下载链接:Co-Fusion: Real-time Segmentation, Tracking and Fusion of Multiple
Objects

开源链接:https://github.com/martinruenz/co-fusion
传感器:RGB-D相机
创新点:

  1. 以实时RGB-D图像流为输入,将场景分割为不同的对象(使用运动或语义提示),同时跟踪和重建其3D形状实时
  2. 使用多种模型拟合方法,其中每个对象可以独立于背景移动,并且仍然有效地跟踪其形状,并且仅使用与该对象标签相关的像素信息随时间融合其形状

3. 实时可扩展的密集表面元素地图

Real-time Scalable Dense Surfel Mapping

在这里插入图片描述

效果图

文章发表时间:2019年9月
文章下载链接:Real-time Scalable Dense Surfel Mapping
开源连接:https://github.com/HKUST-Aerial-Robotics/DenseSurfelMapping
传感器:RGB-D相机,立体相机,单眼相机
创新点:

  1. 提出了一种新颖的密集表面元素映射系统,该系统只需CPU即可在不同环境中很好地缩放
  2. 稀疏SLAM系统的姿势图进一步组织冲浪。使用此组织,将提取局部一致的地图以进行融合,并且无论重建规模如何,融合时间均保持O(1)。还基于优化的姿态图提出了快速地图变形的方法,使系统可以实时实现全局一致性
  3. 使用优化的姿态图进行快速地图变形可使地图实时实现全局一致性
  4. 使用从强度和深度图像中提取的超像素对系统中的surfel进行建模。超像素使我们的方法能够融合低质量的深度图。通过使用基于超像素的surfels,还可以提高运行时效率和内存效率。

4. 用于路面3-D重建的实时立体视觉

Real-Time Stereo Vision for Road Surface 3-D Reconstruction

在这里插入图片描述

效果图

文章发表时间:2018年10月
文章下载链接:Real-Time Stereo Vision for Road Surface 3-D Reconstruction
开源链接:没开源
传感器:立体相机
创新点:

  1. 提出了一种用于路面3-D重建的实时立体视觉系统
  2. 首先,将目标图像的透视图转换为参考视图,这大大增强了参考图像和目标图像之间路面的相似性。在本文中,左图像和右图像分别被视为参考图像和目标图像。然后,使用标准化互相关(NCC)来测量每对选定块之间的相似度。计算出的相关成本存储在两个3-D成本量中。为了自适应地汇总邻域系统的相关成本,我们对两个成本量执行双边过滤。这大大减少了立体声匹配期间的歧义,并提高了估计的视差的准确性。最后,对估计的视差图进行后处理,并重建3-D路面。
  3. 使用文章 novel disparity transformation algorithm for road segmentation中提出的算法来转换视差图以检测坑洼
  4. 一种亚像素视差提高方法
    .在这里插入图片描述

5. DynaSLAM II:紧密耦合的多对象跟踪和SLAM

DynaSLAM II: Tightly-Coupled Multi-Object Tracking and SLAM

在这里插入图片描述

效果图

文章发表时间:2020年10月
文章下载链接:DynaSLAM II: Tightly-Coupled Multi-Object Tracking and SLAM
开源连接:待开源
传感器:RGB-D相机,立体相机
创新点:

  1. 提出了一种在摄像机,物体和3D地图点之间具有新颖测量功能的物体级SLAM系统。系统紧密集成了多对象跟踪功能,这使我们能够跟踪动态对象并严格优化自身和周围环境的轨迹,以使这两种估计互惠互利
  2. 静态场景和动态对象的结构在新颖的捆绑调整方案中与摄像机和移动主体的轨迹一起进行了优化
  3. 对象的3D边界框也可以在固定的时间窗口内进行估算和粗略优化

ps: 这个作者的相关论文还有
4. DynaSLAM: Tracking, Mapping, and Inpainting in Dynamic Scenes【2018 July】
5. Empty Cities: Image Inpainting for a Dynamic-Object-Invariant Space【2019 May】
6. Empty Cities: A Dynamic-Object-Invariant Space for Visual SLAM 【2020 November】

感谢你的耐心看完

  • 5
    点赞
  • 73
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值