Drivable Dirt Road Region Identification Using Image and Point Cloud Semantic Segmentation Fusion

Q1:本文所作的工作是什么?
A1:本文提出了一种融合图像语义分割和激光点云语义分割的综合感知算法用来识别土路(dirt road)上的可行驶区域。

Q2:为什么要强调是在土路上进行的工作?
A2:现在多数工作是在大城市上的结构化道路展开的,如自动驾驶数据集 Citycapes 和 KITTI,在土路上展开研究的很少,而土路如乡间小路等非结构化道路在实际的应用场景中很常见,所以作者想从这一方面入手。
在这里插入图片描述在这里插入图片描述

Q3:为什么要进行数据融合?
A3:激光雷达可以通过高度差区分可行区域,但在可行区域和不可行区域高度差不大时就难以区分,而相机可以为感知提供稠密的颜色信息,但也容易受周边环境变化的影响,且缺少距离信息,激光雷达和相机信息融合可以各取所长,提高模型的鲁棒性。

Q4:激光点云分割是怎么工作的?
A4:激光点云数据格式:激光点云数据格式参考(输入)
本文作者将得到的点云数据先投影为2维的BEV形式(点云转BEV参考),再进行标准的语义分割模型,得到点云分割的结果。注:激光点云的标签由图像分割结果转化而来。(图像分割【现有模型】+ 相机激光雷达标定 = 激光雷达分割标签)
在这里插入图片描述

Q5:本文的方法流程是什么?
A5在这里插入图片描述

Q6:分割结果是如何进行融合的?
A6:图像分割的分割结果是像素级别的分类结果,而点云的分割结果是BEV映射空间上的分类结果,两者不能直接融合,所以需要把图像分割结果和点云分割结果映射到点云空间上,再映射到BEV空间即可,这里需要相机和激光雷达标定作为纽带。最终映射到BEV坐标系的map的格式是300×300个网格,每个网格表示10cm×10cm的区域,网格内的数值为该区域可行的概率。
得到格式相同的数据后就可以融合了,作者提出了两种融合方法 FusionProb 和 FusionIntersection。FusionProb 是根据一定的概率选择两个分割结果的其中一个,FusionIntersection 则是当两个分割结果均为可行时才将最终结果定为可行,就是取了一个交集。

Q7:这个alphashaped是个什么东西?
A7:这是一个算法,具体原理参考alphashaped,其克服了点云边界点形状影响的缺点,可快速准确提取边界点,提取边界点的过程就是提取可行区域的过程。至此,可行区域就被提取出来啦(在BEV空间中)
在这里插入图片描述

Q8:这篇论文的实验是怎么样的?
A8:从各个角度证明在做了数据融合后方法相比没做的鲁棒性更高,可以适应更复杂的应用场景。

Q9:那么这个BEV形式下的可行区域检测是怎么为无人车的决策服务的呢?
A9:不知道。

Summary:这篇论文将图像语义分割和点云语义分割方法综合起来,将结果投影到BEV空间中,通过后处理最终完成土路上的可行区域检测,可以的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值