自动驾驶多传感器融合感知

传感器类型

  • 单目相机、深度相机、双目相机
  • LIDAR

LIDAR数据格式

  • 点云
    • 特征提取方式:Pointnet
      点云中每个点对应一个feature,使用MLP升维。PointNet 因为是只使用了 MLP 和 max pooling,没有能力捕获局部结构,因此在细节处理和泛化到复杂场景上能力很有限。
  • 体素voxel
    • 3D卷积网络
  • 2D mapping
    把点云投影回2D平面,直接利用类似图像方法的2D CNN处理,一方面可以沿用2D图像方法的理论,另一方面方便和图像特征融合。
    • 投影到相机平面
      LIDAR分辨率不高,投影到相机平面,图像质量比相机差很多
    • 投影到BEV

融合方法

经典分类

  • 前融合(数据融合)
    将相机和lidar的raw data做融合,一般是在空间上将两种数据align
  • 特征融合
    在特征层面对两种来源的特征做拼接或相乘
  • 后融合
    对两种观测方式的结果做融合,输出最终的检测定位结果
  • 非对称融合
  • 弱融合
    将一种模态的结果用规则的方式或者半监督、迁移学习等方式,作用到另一种模态上,以另一种模态为主。
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PointNet是一种用于点云数据处理的深度学习模型,它通过对点云数据进行特征提取和分类,可以应用于多种领域如三维物体识别、室内场景分析和自动驾驶等。而自制数据集是为了训练和评估PointNet模型而创建的包含自定义数据的数据集。 自制数据集的创建可以通过以下步骤进行: 1. 数据采集:首先,需要采集与应用场景相关的点云数据。这可以通过传感器如激光雷达、深度相机或者三维扫描仪来获取。例如,在物体识别任务中,可以使用相机拍摄一系列物体的三维模型并转化为点云数据。 2. 数据预处理:采集到的点云数据需要进行预处理以满足模型的要求。这包括去噪、重采样、标准化和数据增强等操作。去噪可以通过滤波算法如高斯滤波或者统计滤波来实现。重采样可以通过对点云进行采样或者插值来调整点的密度。标准化操作可以将点云数据进行归一化,使得坐标值在可接受范围内。数据增强可以通过旋转、平移、缩放或者添加噪声等方式来增加数据的多样性。 3. 数据标注:根据任务需求,对点云数据进行标注。在物体识别任务中,可以为每个点云对象添加类别标签。此外,还可以添加其他属性如法线、颜色等,以提供更多的信息。 4. 数据划分:为了进行训练和评估,需要将数据集划分为训练集、验证集和测试集。可以根据需求设定比例进行划分,一般采用常见的比例如70%训练集、15%验证集和15%测试集。 5. 数据导入:将预处理和标注后的数据集导入PointNet模型进行训练和评估。可以使用深度学习框架如TensorFlow或者PyTorch来导入和处理数据。 通过以上步骤,我们可以创建一个自制的数据集,用于训练PointNet模型。这样的数据集可以提供具有丰富特征和准确标注的点云数据,提高PointNet模型的性能和泛化能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值