ICRA2020重磅来袭——SLAM文章汇总

点击上方“3D视觉工坊”,选择“星标”

干货第一时间送达


ICRA(International Conference on Robotics and Automation)会议是最大的机器人会议,也是IEEE机器人与自动化学会的旗舰会议。ICRA2020共收到3512篇论文,其中ICRA2020收录了2456篇,IEEE Robotics and Automation Letters(RA-L)收录990篇。共12个方向的论文获得了2020IRCA奖项,获奖篇数共36篇。ICRA会议论文中最受欢迎的10个关键词依次为:Deep Learning in Robotics and Automation、Motion and Planning、Localization、Learning and Adaptive Systems、Autonomous Vehicle Navigation、Multi-Robot Systems、SLAM、Object Detection、Segmentation and Categorization、Visual-Based Navigation【1】

在本文中针对SLAM部分的论文进行梳理和简单介绍,共44篇,后续还会针对较为经典的文章进行解读。

1.Real-Time Graph-Based SLAM with Occupancy Normal Distributions Transforms

2.Spatio-Temporal Non-Rigid Registration of 3D Point Clouds of Plants

3.Uncertainty-Based Adaptive Sensor Fusion for Visual-Inertial Odometry under Various Motion Characteristics

4.Loam_livox: A Fast, Robust, High-Precision LiDAR Odometry and Mapping Package for LiDARs of Small FoV

论文主要针对激光雷达测程和绘图(LOAM)展开研究,在该论文中作者提出了一个鲁邦的实时的LOAM算法用于小型Fov和不规则采样,通过在前端和后端进行优化,解决了由这种激光雷达产生的几个基本挑战,并在精度和效率方面取得了比现有基线更好的性能。

论文地址:https://arxiv.org/pdf/1909.06700v1.pdf

代码地址:https://github.com/hku-mars/loam_livox

5.Active SLAM Using 3D Submap Saliency for Underwater Volumetric Exploration

6.Are We Ready for Service Robots? the OpenLORIS-Scene Datasets for Lifelong SLAM

服务机器人应该能够在一段时间内在动态和日常变化的环境中自主运行。而SLAM是机器人自主最基本的问题之一,现有的SLAM大部分工作都是利用短时间内记录的数据序列进行评估。在现实生活中,自然因素和人类活动都会造成视线以外的场景的变化,这使得机器人长期工作和稳定的估计姿态面临巨大挑战。论文中引入长时SLAM(lifelong SLAM)一词,用于处理长期变化环境下的SLAM问题。论文中发布了OpenLORIS-Scene数据集,该数据集在真实的室内场景中收集数据,并手机了现实生活中的多种场景变化。同时设计了长时SLAM的基准度量,分别对姿态估计的鲁棒性和精度进行评估。

论文地址:https://arxiv.org/pdf/1911.05603.pdf

数据集地址:lifelong-robotic-vision.github.io/dataset/scene.

7.Intensity Scan Context: Coding Intensity and Geometry Relations for Loop Closure Detection

回环检测在SLAM中是一个较为重要的部分,现有的三D回环检测常常利用局部或全局几何描述符的匹配,但没有考虑强度读取。论文中对激光雷达的强度特性进行探究,从而发现激光雷达扫描是一种有效的位置识别方法。我们提出一个新的全局描述子,强度扫描上下文算法。为了提高回环检测的效率,还提出了一个有效的两阶段分层再识别过程,包括基于二进制运算的快速几何关系检索和强度结构再识别。

论文地址:https://arxiv.org/pdf/2003.05656.pdf

8.TextSLAM: Visual SLAM with Planar Text Features

论文中提议将人工场景中的文本目标整合到视觉SLAM系统中,基于文本的SLAM算法的核心在于将每一个检测到的文本视为一个具有丰富纹理和语义的平面特征。通过采用亮度不变的光度误差,将文本特征用三个参数简洁地表示,并集成到视觉SLAM中。该论文首次将纹理特征融合到视觉SLAM中。

论文地址:https://arxiv.org/pdf/1912.05002.pdf

9.FlowNorm: A Learning-Based Method for Increasing Convergence Range of Direct Alignment

论文提出了一种新的鲁棒范数,称FlowNorm,其利用了图像的局部误差项和全局图像配准信息,从而实现了前所未有的收敛范围,在这个收敛范围下,图像可以在大视角变化或小重叠的情况下对齐。

论文地址:https://arxiv.org/pdf/1910.07217v1.pdf

10.Redesigning SLAM for Arbitrary Multi-Camera Systems

论文提出了一个自适应SLAM系统,可以在任意多相机设定中工作。另外,还提出了一个自适应初始化方案,一种传感器不确定,信息理论的关键帧选择算法以及一个可扩展的基于体素的地图。

论文地址:https://arxiv.org/pdf/2003.02014.pdf

11.Dynamic SLAM: The Need for Speed

在大多SLAM算法中大多假设静态环境,但在实际动态环境中需要识别移动的物体并实时估计它们的速度。在论文中提出一种新的基于特征的、无模型的、目标感知动态SLAM算法,该算法不需要估计对象的姿态或任何3D模型的先验信息,而是利用语义分割来估计场景中的刚体运动。

论文地址:https://arxiv.org/pdf/2002.08584.pdf

12.GradSLAM: Dense SLAM Meets Automatic Differentiation

论文提出SLAM(gradSLAM),在SLAM上呈现一个可微的计算图。利用计算图的自动分区功能,SLAM使SLAM系统的设计允许跨其每个组件或整个系统进行基于梯度的学习。

论文地址:https://arxiv.org/pdf/1910.10672.pdf

13.Long-Term Place Recognition through Worst-Case Graph Matching to Integrate Landmark Appearances and Spatial Relationships

14.Linear RGB-D SLAM for Atlanta World

15.Stereo Visual Inertial Odometry with Online Baseline Calibration

16.Lidar-Monocular Visual Odometry Using Point and Line Features

17.Probabilistic Data Association Via Mixture Models for Robust Semantic SLAM

论文中阐述并处理了如目标检测等方法中存在的语义和几何不确定度。具体来说,对数据关联的模糊度进行建模,这是一种典型的非高斯模型。通过最大边际化消除数据关联变量的推理过程,保持标准高斯后验假设。其结果是一个max-mixture类型的模型,该模型考虑了多个数据关联假设以及不正确的回环。

论文地址:https://arxiv.org/pdf/1909.11213.pdf

18.Closed-Loop Benchmarking of Stereo Visual-Inertial SLAM Systems: Understanding the Impact of Drift and Latency on Tracking Accuracy

论文中,提出了视觉估计延迟在闭环导航任务中的重要性问题。为了解漂移和延迟在视觉惯性系统中的影响,设计了闭关基准模拟,在实验中利用视觉惯性估计的反馈,机器人被命令跟随一个期望的轨迹。

论文地址:https://arxiv.org/pdf/2003.01317.pdf

19.Metrically-Scaled Monocular SLAM Using Learned Scale Factors

20.Inertial-Only Optimization for Visual-Inertial Initialization

论文中,在最大后验估计的情况下,首次将视觉惯性初始化问题表示为一个最优估计问题,这使我们能够适当地考虑IMU测量的不确定度。

论文地址:https://arxiv.org/pdf/2003.05766.pdf

21.Hierarchical Quadtree Feature Optical Flow Tracking Based Sparse Pose-Graph Visual-Inertial SLAM

22.Keypoint Description by Descriptor Fusion Using Autoencoders

23.Towards Noise Resilient SLAM

24.LAMP: Large-Scale Autonomous Mapping and Positioning for Exploration of Perceptually-Degraded Subterranean Environments

在大规模的、未知的、复杂的地下环境中进行SLAM是一个具有挑战性的问题,传感器必须在非标称条件下工作;不平整和光滑的地形会使轮式里程计测量不准确,没有显著特征的长走廊会使感觉模糊,容易漂移;最后,在隧道和矿井等重复出现的环境中经常出现的伪回环可能会导致整个映射的严重失真。本文报告了在DARPA地下挑战赛中开发的基于雷达的多机器人SLAM系统的实施和测试。论文中提出了一个系统结构来提高地下操作,其包括一个精确的基于雷达的前端以及一个灵活的鲁棒的后端。

论文地址:https://arxiv.org/pdf/2003.01744v1.pdf

25.Modeling Semi-Static Scenes with Persistence Filtering in Visual SLAM

26.Broadcast Your Weaknesses: Cooperative Active Pose-Graph SLAM for Multiple Robots

27.FlowFusion: Dynamic Dense RGB-D SLAM Based on Optical Flow

论文提出了一个新的稠密RGB-D SLAM方案,可同时实现动态/静态分割和相机自运动估计以及静态背景重建等工作。创新之处在于使用光流残差在RGB-D点云中突出显示动态语义,并且为相机跟踪和背景重建提供了更精确和有效的动态/静态分割。

论文地址:https://arxiv.org/pdf/2003.05102.pdf

28.Efficient Algorithms for Maximum Consensus Robust Fitting (I)

29.MulRan: Multimodal Range Dataset for Urban Place Recognition

30.GPO: Global Plane Optimization for Fast and Accurate Monocular SLAM Initialization

论文研究了一种新的基于平面特征的单目SLAM初始化方法。算法从滑动窗口的单应估计开始,然后进行全局平面优化(GPO)来获得相机位姿和平面法线,3D点的坐标可以通过平面约束实现恢复而不需要三角化。该方法充分利用了多帧的平面信息,避免了单应性分解的模糊性。

论文地址:https://arxiv.org/pdf/2004.12051.pdf

31.Large-Scale Volumetric Scene Reconstruction Using LiDAR

32.Topological Mapping for Manhattan-Like Repetitive Environments

论文展示了一个具有挑战性的室内仓库设置的拓扑映射框架。在最抽象的层次上,仓库被表示为一个拓扑图,其中图的节点表示一个特定的仓库拓扑结构,而边表示两个相邻节点或拓扑之间存在一条路径。在中间层,该地图被表示为一个曼哈顿图,其中节点和边具有曼哈顿属性,并在最下层的细节层被表示为一个姿态图。

论文地址:https://arxiv.org/pdf/2002.06575v3.pdf

33.Structure-Aware COP-SLAM

34.Robust RGB-D Camera Tracking Using Optimal Key-Frame Selection

35.Voxgraph: Globally Consistent, Volumetric Mapping Using Signed Distance Function Submaps

全局一致的稠密地图是机器人在复杂环境下长时导航的关键要求。论文提出了一个可以在CPU上创建全局一直的体积映射的框架。所提的框架将环境表示为重叠的符号距离函数(SDF)子映射的集合,并通过计算子映射集合的最优对齐来保持全局一致性。

论文地址:https://github.com/ethz-asl/voxgraph

论文地址:https://arxiv.org/pdf/2004.13154.pdf

36.DeepFactors: Real-Time Probabilistic Dense Monocular SLAM

论文中提出一个SLAM系统,其利用不同的场景表示、用于优化多视图问题的一致性度量、使用先验学习等算法并将其同意在一个概率框架中,同时保持实时性能。

论文地址:https://arxiv.org/pdf/2001.05049.pdf

37.DOOR-SLAM: Distributed, Online, and Outlier Resilient SLAM for Robotic Teams

为了完成协作任务,团队中的机器人需要对环境和它们在其中的位置有共同的理解。分布式SLAM提供了一个实用的解决方案来定位机器人,而不依赖于外部定位系统(GPS等)。论文介绍了DOOR-SLAM,一个全分布式的配备离散点提出机制的SLAM系统。DOOR-SLAM是基于peer-to-peer通信并且不需要机器人之间的完全连接。DOOR-SLAM有两个关键模块:位姿图估计器和分布式SLAM前端。该系统已经在模拟、基准数据集和现场实验中进行了评估,包括不支持gps的地下环境。

论文地址:https://arxiv.org/pdf/1909.12198.pdf

论文地址:https://github.com/MISTLab/DOOR-SLAM.git

38.Windowed Bundle Adjustment Framework for Unsupervised Learning of Monocular Depth Estimation with U-Net Extension and Clip Loss

39.StructVIO : Visual-Inertial Odometry with Structural Regularity of Man-Made Environments

论文提出一个新的视觉惯性里程计方法,该算法才用了人造环境中的结构规则。论文使用Altanta世界模型而不是Manhattan世界模型描述了这种规则。

论文地址:https://arxiv.org/pdf/1810.06796.pdf

40.Flow-Motion and Depth Network for Monocular Stereo and Beyond

论文提出一个基于学习的方法来解决单目立体问题,并且可以扩展到融合多目标帧的深度信息。已知来自单目相机(内参已标定)的两张无约束图像,论文中提出的网络可估计相对相机位姿和源图像的深度图。论文的主要贡献有3个方面:(1)首先,网络是为静态场景量身定制的,可以联合估计光流和摄像机运动。通过联合估计,逐渐减小光流搜索空间,实现高效准确的流估计;(2)其次,提出了一种新的三角化层来编码估计的光流和相机运动,同时避免了常见的由极线引起的数值问题;(3)第三,在双视图深度估计的基础上,进一步扩展了上述网络,来融合多幅目标图像的深度信息,得到了源图像的深度图。

论文地址:https://arxiv.org/pdf/1909.05452.pdf

论文地址:https://github.com/HKUST-Aerial-Robotics/Flow-Motion-Depth

41.Online LiDAR-SLAM for Legged Robots with Robust Registration and Deep-Learned Loop Closure

42.Hybrid Camera Pose Estimation with Online Partitioning for SLAM

论文提出了一种混合的实时相机位姿估计架构和一个新的分割方案,并将运动平均化到SLAM系统。该方法突破了许多常规的SLAM流程中固定大小时间划分的限制,该方法通过将空间强连接的摄像机整合到每个块中,显著提高了局部光束平差的精度。

论文地址:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8962959

43.Analysis of Minima for Geodesic and Chordal Cost for a Minimal 2D Pose-Graph SLAM Problem

论文中展示了对于最小2D位姿图SLAM问题,即使在完美测量和球面协方差的理想情况下,使用geodesic距离来比较角度也会产生多个次最优局部极小值。

论文地址:https://arxiv.org/pdf/1911.05734v2.pdf

44.Voxel Map for Visual SLAM

论文认为关键帧不是最佳的选择,因为一些固有的限制,如薄弱的几何推理和较差的可扩展性。论文提出一种体素图表示法来有效检索视觉SLAM的地图点。与关键帧相比,该方法能有效地保证被遮挡点的几何分布,并能在一定范围内对遮挡点进行识别和去除。

论文地址:https://arxiv.org/pdf/2003.02247.pdf

以上就是ICRA2020的所有SLAM部分的论文解读,有部分论文还未正式在网上发布,因此没有进行解读。接下来还会推出其他部分的论文解读,敬请期待。有感兴趣的论文也可给作者留言,我们可以作出更为详细的论文分析。

参考文献

1.https://mp.weixin.qq.com/s/n2Ssvd4PVqIPhFECbf90ag

本文仅做学术分享,如有侵权,请联系删文。

下载1

在「3D视觉工坊」公众号后台回复:3D视觉即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。

下载2

在「3D视觉工坊」公众号后台回复:3D视觉优质源码即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。

下载3

在「3D视觉工坊」公众号后台回复:相机标定即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配即可下载独家立体匹配学习课件与视频网址。

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

 圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  

  • 4
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
trash_icra19指的是2021年国际机器人大会和自动化国际会议(ICRA)的垃圾处理主题。ICRA是世界上最重要的机器人和自动化领域的学术会议之一,每年都吸引着来自全球各地的专家学者和工业界人士。 垃圾处理是一个全球性的问题,尤其是在人口增长和城市化的背景下。利用智能机器人技术来改善垃圾处理过程,可以提高效率、降低成本,并减少对人类的影响。 trash_icra19可能涵盖了与垃圾处理有关的各种领域和技术。首先,机器人可以被用于自动化的垃圾收集和分类。例如,智能垃圾箱可以通过传感器识别垃圾的类型和重量,自动将其分类并在合适的时间通知收运车辆。同时,机器人也可以在垃圾堆中进行自主导航和识别,以帮助垃圾工人更快速地处理垃圾。 此外,垃圾处理中的可回收物品的回收利用也是一个重要的方向。智能机器人可以通过识别和分拣可回收物品,提高回收率和资源利用效率。利用机器学习和视觉识别技术,可以让机器人从大量混杂的垃圾中找到有价值的可回收物品。 另一方面,垃圾处理还需要考虑环境保护和可持续发展的因素。trash_icra19可能也涉及到了利用机器人进行垃圾焚烧和废弃物处理的研究。通过探索新的能源回收和清洁技术,可以使垃圾处理过程更加环保和可持续。 总之,trash_icra19可能涵盖了垃圾处理领域的各个方面,包括垃圾收集、分类、回收利用、环境保护等。通过应用智能机器人技术,可以改善垃圾处理过程的效率和可持续性,为建设清洁、健康和可持续的城市提供支持。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值