自动驾驶采标系列四:基于激光雷达的目标检测方法

    标注猿的第55篇原创    

   一个用数据视角看AI世界的标注猿  

上一篇文章我们讲了基于图像的目标检测技术,但对于标注人员来说这部分内容就相对比较难一些,只是作为一个了解就可以,但是如果想向人工智能训练师或者更高职位的发展就一定要了解。

从目前的标注需求来看自动驾驶的标注需要一定是占据了标注行业的半壁江山的而从数据需求来看有是足够持续的,毕竟做自动驾驶的“金主爸爸们”都是非常富足的。

本文就继续就基于激光雷达的目标检测方法做学习。

基于激光雷达的目标检测方法

虽然在图像领域可以利用双目视觉来重建三维场景,能为基于图像的3D目标检测方法提供深度信息,但是所提供的深度细心本身具有一定损失,因此为了获得更加精准的三维信息,激光雷传感器是不可或缺的。

目前基于激光雷达进行3D目标检测的方法,根据其数据表示方法可以分为体素的表示方法和基于原始点云的表示方法。

是将不规则点云转换为类似于图像的规则形式,以便利用3D卷积神经网络进行特征提取。方法包括以下几种:

  • 基于体素的表示方法:

    1. PointPillar:基于立体柱(Pillar)形式的目标检测方法以PointPillar为代表,其将点云以立体柱的形式体素化,每个Pillar中随机保留固定数量的点云,并使用PointNet网络提取Pillar中点云全局特征,作为Pillar的特征。该体素化方式将整个三维点云空间压缩到了二位,并且使用二位的卷积神经网络实现了端到端的3D点云学习。

    2. VoxelNet:基于体素(Voxel)形式的目标检测方法以VoxelNet为 代表,其将点云3D空间等间距分割成多个Voxel,经过点的随机采样以及归一化后,对每个一个非空Voxel使用若干VFE(Voxel Feature Encoding,体素特张编码)层进行局部特征提取,得到体素级特征,然后经过3D卷积神经网络层进一步抽象得到局部的特征,最后使用RPN对物体进行分类检测与位置回归。

      其中VFE层,对于Voxel中N个采样点使用全连接网络抽象点级特征,在使用最大池化方法得到布局特征,这与PointNet的处理方式类似。

      此外,由于点云具有高度的稀疏性以及密度不均匀性,我们利用哈希表查询的方式,可以做到快速找到每一个Voxel中的点在三维点云中的具体位置。

    3. SECOND:SECOND同样使用了Voxel的表示形式,相比于VoxelNet来说,其创新点在于使用了3D稀疏卷积和子流形稀疏卷积来提升目标检测的速度。

      由于点云的稀疏性,其生成的体素网格同样具有很强的稀疏性,因此使用稀疏卷积极大的提高了检测的效率。

      此外,该方法在数据增强时使用了数据库采样操作,该操作将训练数据集中的所有的正样本的点云保存到数据库中,在训练过程中从数据库中随机选择对应类的正样本,加入到该帧训练数据中,从而增强了数据的多样性。

  • 基于原始点云的表示方法:

    为了避免体素化过程中由于丢失精确的三维信息而导致识别结果不准确,可以基于原始点云进行表示。基于原始电影进行3D目标检测的方法包括PointNet、PointNet++、PV-RCNN,SAPV-RCNN。

    1. PointNet:PointNet是基于原始点云进行目标检测的开创性方法。由于原始电影的无序性和不规则问题,传统的卷积神经网络算法难以在原始电影上进行特征提取。

      但是要在原始点云提取特征,必须解决点云的无序性和旋转不变性问题。原始点云的无序性即对于一个特定点集,其不会随点输入顺序改变而改变,因此模型需要对不同输入顺序的相同点集有相同的分类或语义分割结果。

      针对该问题,PointNet使用对称函数保证序列不变,这里用到了最大池化来做对称函数。原始点云的变换不变性,即旋转和平移不改变点云含义,因此模型需要对经过旋转或平移的相同点集有同样结果。

    2. PointNet++:原始点云之间每个点都不是孤立的,因此模型需要可以提取点与相邻点的局部特征能力,PointNet++主要针对PointNet中无法提取局部点云特征做出了改进。

      在PointNet中利用多层感知机对每个点分别提取特征,然后使用对称性函数Max-Pooling来提取全局点云特征,没有考虑到局部特征。

    3. PV-PCNN:PV-RCNN结合了体素化的表示形式和原始点云表示形式的优点,是一个两阶段的网络,从而在可控的内存消耗下提高了3D对象检测的性能。

      第一阶段:产生的检测框是有体素化特征得到的,因此其三维坐标准去度不足。

      第二阶段:对于每个检测框提取了基本原始点云的特征,经过提议求精(Proposal Refinement)模块生成修正的目标检测结果。

    4. SAPV-RCNN:无论是体素法还是原始点云法,更多地都是关注单个类别目标检测效果的提升,尽管网络可以迁移到不同目标类别上完成不同目标检测任务,但是难以训练出统一的网络来对尺度差异较大的多类目标同时完成检测,因此这种方案的扩展性差,必须通过仔细调整模型设计、尝试不同的超参数才能完成新模型的训练,实现多类别高精度检测。

      因此,提出SAPV-RCNN方法,在模型构建时加入尺度自适应模块,通过自适应地学习潜在目标的尺度信息,来指导特征提取范围,从而保证小尺度的物体不会因为特征提取范围过大造成信息完全损失;

      同时,大尺度的物体不会由于特征提取范围过小导致无法提取物体整体信息,从而实现尺度适应的三维目标检测。

以上就是本文基于激光雷达的目标检测方法的介绍。有感兴趣的小伙伴也可以看《基于5G的智能驾驶技术与应用》一书,是北邮的网络与交换国家重点实验室组编,非常适合小伙伴做基础理解和行业了解为主的学习。

相关文章阅读:

  1. 自动驾驶采标系列三:基于图像的目标检测技术(内附标注猿专属定制新年礼品)

  2. 自动驾驶采标系列二:车载感知与车载传感器标定(内附标注猿专属定制新年礼品)

  3. 自动驾驶采标系列一:自动驾驶数据采集资质及采集数据出境的调研分析

下一篇文章预告:

    《自动驾驶采标系列五:图像与激光雷达联合目标检测方法》”

-----------------------完---------------------

公众号:AI数据标注猿

知乎:AI数据标注猿

CSDN:AI数据标注猿

-----------------------完---------------------

 

  • 0
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI数据标注猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值