![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Fusion3D
文章平均质量分 94
关于多传感器融合算法
calvinpaean
Carpe diem.
展开
-
BEVFusion Multi-Task Multi-Sensor Fusion with Unified Bird’s-Eye View Representation 论文学习
如下图 b 所示,现有的实现(如 LSS)首先计算所有点的 prefix sum,然后减去索引改变的边界位置的值。不同的特征存在于不同的视角中,相机特征是在透视视角,LiDAR/RADAR 特征通常在 3D/BEV 视角。这些差异使得特征融合很困难,因为在不同的特征张量中,相同的元素可能对应着完全不同的空间位置,直接做逐元素的特征融合是无效的。不同的传感器可以提供互补的信号:相机能捕捉到丰富的语义信息,LiDAR 可以提供准确的空间信息,RADAR 能提供及时的速度预测。的图像特征能匹配到点云。原创 2023-07-18 13:29:58 · 91 阅读 · 0 评论 -
MVX-Net Multimodal VoxelNet for 3D Object Detection 论文学习
下图是 MVX-Net VoxelFusion 方法,使用预先训练好的 2D Faster RCNN 计算图像特征图,RPN 和 RCN 并不用于 3D 推理流程。使用标定参数将 3D 点投影到图像,把对应的图像特征添加到 3D 点的后面。随后,VFE 层和 3D RPN 处理聚合后的特征,输出 3D 结果。然后利用标定参数,将每个 3D 点投影到图像上,将投影位置索引的特征添加到该点的后面。都通过 VFE 层(一个全连接网络)变换到特征空间,聚合 3D 点特征的信息,编码体素内的表面形状。原创 2023-07-18 13:22:58 · 603 阅读 · 1 评论 -
BEVFusion A Simple and Robust LiDAR-Camera Fusion Framework 论文学习
论文地址:BEVFusion: A Simple and Robust LiDAR-Camera Fusion Framework 论文学习Github 地址:BEVFusion: A Simple and Robust LiDAR-Camera Fusion Framework 论文学习1. 解决了什么问题?将相机和 LiDAR 融合已经成为 3D 检测任务事实上的标准方案,二者的特征可以互补。目前的方法依赖激光雷达点云作为 queries,然后再利用图像空间的特征。但人们发现,当激光雷达失灵时,这原创 2023-05-08 16:45:36 · 786 阅读 · 0 评论