UniMODE:统一的单目 3D 目标检测
实现包括室内和室外场景的统一单目 3D 目标检测在机器人导航等应用中具有重要意义。然而,涉及数据的各种场景来训练模型会带来挑战,因为它们具有显著不同的特性,例如不同的几何特性和异构的域分布。为了解决这些挑战,我们构建了一种基于鸟瞰图(BEV)检测范式的检测器。
LaneCPP:使用物理优先级的连续 3D 车道检测
单目 3D 车道检测已成为自动驾驶领域的一个基本问题,自动驾驶包括寻找路面和定位车道标线的任务。
MonoDiff:使用扩散模型的单目 3D 对象检测和姿势估计
由于缺乏 3D 感知带来的高度不确定性,从单视图像中进行 3D 目标检测和姿态估计是具有挑战性的。作为一种解决方案,最近的单目 3D 检测方法利用诸如立体图像对和 LiDAR 点云等额外的模式来增强图像特征,但代价是额外的注释成本。我们建议使用扩散模型来学习单目 3D 检测的有效表示,而不需要额外的模式或训练数据。我们提出了一个新的框架 MonoDiff,它使用反向扩散过程来估计 3D 边界框和方向。
跨数据集 3D 目标检测的无监督域自适应伪标签精炼
最近的自训练技术在用于 3D 对象检测的无监督域自适应(3D UDA)方面显示出显著的改进。这些技术通常选择伪标签,即 3D 框来监督目标域的模型。然而,这种选择过程不可避免地引入了不可靠的 3D 框,其中 3D 点不能被确定地分配为前景或背景。以前的技术通过将这些框重新加权为伪标签来缓解这一问题,但这些框仍然会干扰训练过程。为了解决这一问题,本文提出了一种新的伪标签精炼框架。
VSRD:用于弱监督3D目标检测的实例感知体积轮廓绘制
单目 3D 对象检测由于其在单目深度估计中固有的不适定性,在 3D 场景理解中构成了重大挑战。现有的方法在很大程度上依赖于使用丰富的 3D 标签的监督学习,这些标签通常是通过在激光雷达点云上进行昂贵且劳动密集的注释来获得的。为了解决这个问题,我们提出了一种新的弱监督 3D 目标检测框架,称为 VSRD(检测的体积轮廓绘制),用于训练没有任何 3D 监督但只有弱 2D 监督的 3D 目标检测器。