- 博客(8)
- 收藏
- 关注
原创 Second:Sparsely Embedded Convolutional Detection
基于体素划分的3D卷积网络可以较好的处理lidar信息,但是有推理速度慢和朝向估计的性能差的不足。我们在基于lidar的目标检测中应用了稀疏卷积,从而大大提高了训练和推理的速度。我们提出了一种改进的稀疏卷积方法,使其运行速度更快。我们提出了一种新的角度损失回归方法,该方法展示了比其他方法更好的方向回归性能。我们为仅限lidar的学习问题引入了一种新的数据增强方法,大大提高了收敛速度和性能。
2024-05-02 13:40:14
833
1
原创 mit-bevfusion结构代码解读
代码的部分: bevfusion-main\mmdet3d\models\backbones\second.py。代码部分:bevfusion-main\mmdet3d\models\necks\second.py。
2024-04-22 17:00:10
1008
1
原创 Transformer和swin-transformer
首先将图片输入到Patch Partition模块(它的作用就是将一张图像,拿着刀切成一块块的小图像中进行分块,即每4x4相邻的像素为一个Patch,然后在channel方向展平。假设输入的是RGB三通道图片,那么每个patch就有4x4=16个像素,然后每个像素有R、G、B三个值所以展平后是16x3=48,所以通过Patch Partition后图像shape由[H, W, 3]变为[H/4, W/4, 48]。然后在通过层对每个像素的channel数据做线性变换,由48变成C,即图像shape再由。
2024-04-19 11:11:55
1936
原创 mit-bevfusion遇到的问题及其解决办法
检查bevfusion下面的是否存在一个nuscenes文件夹,如果有,需要修该bevfusion/tools/data_converter/nuscenes_converter.py。注释掉 mmdet3d/ops/__init__.py 中的 from .feature_decorator import feature_decorator。和 mmdet3d/models/backbones/__init__.py 中的 from .radar_encoder import *1.下载openmi。
2024-03-31 10:37:24
349
2
原创 BevFusion: A Simple and Robust LiDAR-Camera Fusion Framework(北大阿里的)
重点: 介绍了一个融合摄像头和激光雷达数据的框架,用于3D对象检测。其创新之处在于使摄像头流程不依赖激光雷达输入,解决了现有方法过度依赖激光雷达数据的局限性。方法: BEVFusion框架使用两个独立流程来处理激光雷达和摄像头数据然后在鸟瞰视图(BEV)层面进行融合。这种方法即使在激光雷达功能失常,或摄像头失常的情况下也保证了稳健性。性能。
2024-03-31 10:33:27
1531
1
原创 BEVFusion: Multi-Task Multi-Sensor Fusion with Unified Bird‘s-Eye View Representation(mit-麻省理工版本)
上一篇的bevfusion虽然与这篇的名字很相像但是解决的办法不同,上一篇主要是讲让激光相机融合前独立运行,剥离依存关系。本篇主要讲解决融合时BEV特征统一性问题,并对该方式的运行效率做了优化。下面来看具体情况。(1).来自不同传感器的数据以根本不同的方式表达:例如,相机以透视视图捕获数据,而激光雷达以3D视图捕获数据。为了解决这种视图差异,我们必须找到一种适用于多任务多模态特征融合的统一表示。由于二维感知的巨大成功,自然的想法是将激光雷达点云投影到相机上,并用二维cnn处理RGB-D数据。然而,
2024-03-31 10:29:08
1806
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人