3D目标检测
文章平均质量分 92
更新3D目标检测相关论文
fish小余儿
C/C++程序员
展开
-
U-Net: Convolutional Networks for Biomedical Image Segmentation
人们普遍认为,成功训练深度网络需要数千个带注释的训练样本。在本文中,我们提出了一种网络和训练策略,该策略依赖于数据增强的强大使用来更有效地使用可用的注释样本。该架构由一个用于捕获上下文的收缩路径和一个能够实现精确定位的对称扩展路径组成。我们表明,这样的网络可以从很少的图像进行端到端训练,并且在ISBI挑战赛中优于先前的最佳方法(滑动窗口卷积网络),用于分割电子显微镜堆栈中的神经元结构。使用在透射光显微镜图像(相差和DIC)上训练的相同网络,我们在这些类别中大幅赢得了2015年ISBI细胞跟踪挑战赛。....原创 2022-07-19 21:24:54 · 1211 阅读 · 0 评论 -
Mask R-CNN
我们提出了一个概念上简单、灵活和通用的目标实例分割框架。我们的方法有效地检测图像中的目标,同时为每个实例生成高质量的分割mask。该方法称为Mask R-CNN,通过添加用于预测目标mask的分支与用于边界框识别的现有分支并行来扩展Faster R-CNN。 Mask R-CNN很容易训练,并且只为Faster R-CNN增加了一点开销,运行速度为5 fps。此外,Mask R-CNN很容易推广到其他任务,例如,允许我们在同一框架中估计人体姿态。我们在COCO挑战套件的所有三个轨道中展示了最佳结果,包括实例原创 2022-06-30 18:08:35 · 1275 阅读 · 0 评论 -
(CVPR 2020)3DSSD: Point-based 3D Single Stage Object Detector
摘要目前,基于体素的3D单级检测器已经有很多种,而基于点的单级检测器仍处于探索阶段。在本文中,我们首先提出了一种轻量级且有效的基于点的3D单级目标检测器,名为3DSSD,在精度和效率之间取得了很好的平衡。在这种范式中,所有现有的基于点的方法中必不可少的所有上采样层和细化阶段都被放弃,以减少大量的计算成本。我们在下采样过程中新颖地提出了一种融合采样策略,以使对较少代表性点的检测变得可行。为了满足预测精度和速度的要求,设计了一个精确的框预测网络,包括候选生成层、anchor-free回归头和三维中心度分配策略原创 2022-05-11 20:55:16 · 1667 阅读 · 0 评论 -
(CVPR 2020) PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection
Abstract我们提出了一种新颖的高性能3D目标检测框架,名为PointVoxel-RCNN(PV-RCNN),用于从点云进行准确的3D目标检测。我们提出的方法深度集成了3D体素卷积神经网络(CNN)和基于PointNet的集合抽象,以学习更多有区别的点云特征。它利用了3D体素CNN的高效学习和高质量proposals以及基于PointNet的网络的灵活感受野。具体来说,所提出的框架通过一个新颖的体素集抽象模块将具有3D体素CNN的3D场景总结为一小组关键点,以节省后续计算并编码具有代表性的场景特征。鉴原创 2022-05-11 14:34:31 · 1196 阅读 · 0 评论 -
(TPAMI 2020) Part-A^2 Net
AbstractLiDAR点云的3D目标检测是3D场景理解中的一个具有挑战性的问题,具有许多实际应用。在本文中,我们将我们的初步工作PointRCNN扩展到一个新颖且强大的基于点云的3D目标检测框架,即部分感知和聚合神经网络(Part-A2A^2A2网络)。整个框架由部分感知阶段和部分聚合阶段组成。首先,部分感知阶段首次充分利用从3D ground-truth框派生的free-of-charge部分监督,同时预测高质量的3D proposals和准确的目标内部分位置。同一proposal中预测的目标内部分原创 2022-05-06 15:35:40 · 1010 阅读 · 0 评论 -
(CVPR 2019) PointRCNN: 3D Object Proposal Generation and Detection From Point Cloud
Abstract在本文中,我们提出PointRCNN用于从原始点云进行3D目标检测。整个框架由两个阶段组成:stage-1用于自下而上的 3D proposal生成,stage-2用于在规范坐标中细化proposal以获得最终检测结果。我们的第一阶段子网络不是像以前的方法那样从RGB图像生成proposals或将点云投影到鸟瞰图或体素,而是通过分割以自下而上的方式直接从点云生成少量高质量的3D proposals将整个场景的点云分为前景点和背景。stage-2子网络将每个proposal的池化点转换为规范原创 2022-05-02 20:55:30 · 2381 阅读 · 1 评论 -
(CVPR 2019)PointPillars: Fast Encoders for Object Detection From Point Clouds
Abstract点云中的目标检测是许多机器人应用(例如自动驾驶)的重要方面。在本文中,我们考虑将点云编码为适合下游检测管道的格式的问题。最近的文献提出了两种类型的编码器;固定编码器往往速度很快,但牺牲了准确性,而从数据中学习的编码器更准确,但速度较慢。在这项工作中,我们提出了PointPillars,这是一种新颖的编码器,它利用PointNets来学习以垂直列(柱体)组织的点云的表示。虽然编码的特征可以与任何标准的2D卷积检测架构一起使用,但我们进一步提出了一个精简的下游网络。大量实验表明,PointPi原创 2022-04-29 14:35:58 · 953 阅读 · 0 评论 -
CornerNet: Detecting Objects as Paired Keypoints
Abstract我们提出了CornerNet,这是一种新的目标检测方法,我们使用单个卷积神经网络将目标边界框检测为一对关键点,即左上角和右下角。通过将目标检测为成对的关键点,我们无需设计一组通常用于先前single-stage检测器的锚框。除了我们的新公式之外,我们还引入了corner pooling,这是一种新型的池化层,可以帮助网络更好地定位角点。实验表明,CornerNet在MS COCO上实现了42.2%的AP,优于所有现有的one-stage检测器。关键词 目标检测1 Introductio原创 2022-04-27 19:50:03 · 721 阅读 · 0 评论 -
SECOND: Sparsely Embedded Convolutional Detection
Abstract基于LiDAR或基于RGB-D的目标检测被用于从自动驾驶到机器人视觉的众多应用中。一段时间以来,基于体素的3D卷积网络在处理点云LiDAR数据时被用于增强信息的保留。然而,问题仍然存在,包括推理速度慢和方向估计性能低。因此,我们研究了一种用于此类网络的改进稀疏卷积方法,该方法显着提高了训练和推理的速度。我们还引入了一种新形式的角度损失回归来提高方向估计性能和一种新的数据增强方法,可以提高收敛速度和性能。所提出的网络在KITTI 3D目标检测基准上产生了最先进的结果,同时保持了快速的推理速度原创 2022-04-19 15:02:01 · 1270 阅读 · 0 评论 -
(CVPR_2021) Center-based 3D Object Detection and Tracking
摘要三维目标通常表示为点云中的3D框。这种表示模仿了经过充分研究的基于图像的2D边界框检测,但也带来了额外的挑战。3D世界中的目标不遵循任何特定的方向,基于框的检测器难以枚举所有方向或将轴对齐的边界框拟合到旋转的目标。在本文中,我们建议将3D目标表示、检测和跟踪为点。我们的框架CenterPoint首先使用关键点检测器检测目标的中心,然后回归到其他属性,包括3D大小、3D方向和速度。在第二阶段,它使用目标上的附加点特征来细化这些估计。在CenterPoint中,3D目标跟踪简化为贪婪的最近点匹配。由此产生原创 2022-04-12 20:20:55 · 2229 阅读 · 0 评论 -
(CVPR 2017) Joint 3D Proposal Generation and Object Detection from View Aggregation
摘要我们提出了AVOD,一种用于自动驾驶场景的聚合视图目标检测网络。所提出的神经网络架构使用LIDAR点云和RGB图像来生成由两个子网络共享的特征:区域proposal网络(RPN)和第二阶段检测器网络。所提出的RPN使用一种新颖的架构,能够在高分辨率特征图上执行多模态特征融合,从而为道路场景中的多个目标类别生成可靠的3D目标proposal。使用这些proposal,第二阶段检测网络执行准确的定向3D边界框回归和类别分类,以预测3D空间中目标的范围、方向和分类。我们提出的架构被证明可以在KITTI 3D原创 2022-04-04 23:37:35 · 3733 阅读 · 0 评论 -
(CVPR 2017)Multi-View 3D Object Detection Network for Autonomous Driving
摘要本文针对自动驾驶场景中的高精度3D目标检测。我们提出了多视图3D网络(MV3D),这是一种传感融合框架,将LIDAR点云和RGB图像作为输入并预测定向的3D边界框。我们使用紧凑的多视图表示对稀疏3D点云进行编码。该网络由两个子网络组成:一个用于3D目标proposal生成,另一个用于多视图特征融合。proposal网络从3D点云的鸟瞰图表示有效地生成 3D候选框。我们设计了一个深度融合方案来组合来自多个视图的区域特征,并实现不同路径的中间层之间的交互。在具有挑战性的KITTI基准上进行的实验表明,我们原创 2022-03-25 17:08:28 · 861 阅读 · 0 评论 -
(CVPR 2017)VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection
摘要准确检测3D点云中的目标是许多应用中的核心问题,例如自主导航、家政机器人和增强/虚拟现实。为了将高度稀疏的LiDAR点云与区域proposal网络 (RPN) 连接起来,现有的大多数工作都集中在手工制作的特征表示上,例如鸟瞰图投影。在这项工作中,我们消除了对3D点云的手动特征工程的需要,并提出了VoxelNet,这是一种通用的3D检测网络,它将特征提取和包围盒预测统一到单阶段、端到端可训练的深度网络中。具体来说,VoxelNet将点云划分为等间距的3D体素,并通过新引入的体素特征编码 (VFE) 层将原创 2022-03-22 17:19:02 · 4180 阅读 · 0 评论 -
(NIPS 2017) PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space
摘要很少有先前的工作研究点集的深度学习。 PointNet[20]是这个方向的先驱。然而,根据设计,PointNet并没有捕捉到由点所处的度量空间引起的局部结构,限制了其识别细粒度模式的能力和对复杂场景的通用性。在这项工作中,我们引入了一个分层神经网络,在输入点集的嵌套分区上递归地应用PointNet。通过利用度量空间距离,我们的网络能够学习具有不断增加的上下文尺度的局部特征。随着进一步观察到点集通常以变化的密度采样,这导致在均匀密度上训练的网络的性能大大降低,我们提出了新的集合学习层来自适应地组合来自多原创 2022-03-14 19:57:25 · 3099 阅读 · 0 评论 -
(CVPR 2017) PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation
摘要点云是一种重要的几何数据结构类型。由于其不规则的格式,大多数研究人员将此类数据转化为常规的三维体素网格或图像集合。然而,这使数据变得不必要的庞大,并导致问题。在本文中,我们设计了一种新型的直接处理点云的神经网络,它很好地考虑了点在输入中的排列不变性。我们的网络名为PointNet,为从目标分类、部分分割到场景语义分析等应用提供了一个统一的架构。虽然简单,但PointNet是非常高效和有效的。从经验上看,它表现出了与现有技术相当甚至更好的性能。从理论上讲,我们提供了分析,以了解网络学到了什么,以及为什么原创 2022-03-06 16:38:00 · 2828 阅读 · 0 评论