SLAM论文速递【SLAM——动态场景下基于YOLOv5的视觉SLAM建图】—4.05(3)

论文信息

题目:

Visual SLAM Mapping Based on YOLOv5 in Dynamic Scenes 
动态场景下基于YOLOv5的视觉SLAM建图

论文地址:

https://www.mdpi.com/2076-3417/12/22/11548/pdf

发表期刊:

Journals  Applied Sciences  Volume 12  Issue 22  10.3390/app122211548 

标签

yolov5结合orbslam2、语义分割、动态目标点剔除

摘要

文中提出了一种基于ORB-SLAM2算法结合YOLOv5网络的映射方法。首先,利用跟踪线程的YOLOv5网络对每一帧进行动态对象检测,得到带有动态信息检测的关键帧;其次,利用YOLOv5网络检测每帧图像的动态对象,并拒绝检测出的动态点;最后,剔除高动态对象后,利用关键帧构建全局映射图。使用TUM数据集的测试结果表明,在动态环境中构建地图时,与ORB-SLAM2算法相比,所提算法的绝对轨迹误差降低了97.8%,相对位置误差降低了59.7%。与DynaSLAM相比,跟踪每帧图像的平均耗时提高了94.7%。在算法实时性方面,该算法明显优于同类动态SLAM建图算法DynaSLAM

内容简介

本文的主要贡献如下:1。将深度学习目标检测网络YOLOv5应用于SLAM建图系统,使SLAM系统能够进行快速的目标检测和分割;提出一种基于深度学习网络YOLOv5结合LK光流法的动态目标二次检测方法,能够有效去除点的动态特征区域的动态特征;基于ORB-SLAM2系统,成功构建了一个新的SLAM制图系统。本文的结构如下:第1节详细介绍了ORB-SLAM2算法和YOLOv5网络结构的原理以及各模块的功能。第二部分对ORB-SLAM2算法进行了改进,并详细描述了动态特征点的剔除原理。

评价

本文提出的基于YOLOv5网络的动态SLAM建图系统虽然可以消除环境中的大部分动态对象,并能提高建图和轨迹预测的精度,但也存在一定的局限性。当环境中的动态对象长时间静止时,会掩盖静态背景,导致地图构建不准确,该算法对其进行检测和剔除。遮挡的静态背景区域会产生较大的误差。因此,在未来的工作中,我们的研究将主要集中在遮挡区域的恢复上。首先利用分割网络将遮挡区域与遮挡目标一起分割出来,然后将分割后的区域掩蔽为遮挡背景、遮挡目标和未遮挡背景3部分。然后根据未遮挡背景去除遮挡目标并预测遮挡背景,以恢复遮挡背景;

  • 2
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
视觉SLAM(Simultaneous Localization and Mapping)是指在未知环境中,通过相机或传感器采集的图像数据进行实时定位和建图的技术。在动态复杂场景下,SLAM算法面临着更大的挑战,因为动态物体的存在可能会干扰算法的运行。 基于FPGA(Field Programmable Gate Array)的视觉SLAM算法研究与应用是将SLAM算法实现在FPGA硬件平台上,以提高算法的实时性和功耗效率。FPGA具有并行计算和可重构的特点,适合于处理大量数据和实时计算任务。 在动态复杂场景下,基于FPGA的视觉SLAM算法需要考虑以下几个方面: 1. 物体检测和跟踪:为了正确建图和定位,算法需要能够区分静态环境和动态物体,并且对动态物体进行跟踪。在FPGA上实现物体检测和跟踪算法可以提高实时性能。 2. 运动估计:在动态场景中,相机和物体可能同时移动,这会导致传统的运动估计方法失效。因此,需要研究更鲁棒的运动估计方法,以适应动态场景下的SLAM需求。 3. 数据关联:在动态场景中,物体的运动可能导致传感器数据的匹配困难,因此需要研究如何准确地关联传感器数据,以避免错误的建图和定位。 4. 资源管理:FPGA资源有限,因此需要进行有效的资源管理,以满足算法的需求。这包括任务划分、并行计算和存储优化等方面。 总之,基于FPGA的视觉SLAM算法研究与应用在动态复杂场景下具有重要意义,可以通过硬件加速提高算法的实时性和鲁棒性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值