![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文
文章平均质量分 84
论文笔记
Blizzard_v
An explorer
展开
-
ECCV 2020|3D-CVF多模态融合(LIDAR+CAMERA)
3D-CVF: Generating Joint Camera and LiDARFeatures Using Cross-View Spatial FeatureFusion for 3D Object Detection(point-wise)1.摘要+intro作者提出的问题是从相机图像和LiDAR点云获得的特征是以不同的视角(即相机视角和3D世界视角)来表示的。当相机特征被投影到3D世界坐标时,可能会丢失关于目标的一些有用的空间信息(本身应该是1 to 1,1 to 多,例如应该是相机手对点云原创 2022-03-11 18:06:10 · 1859 阅读 · 0 评论 -
2020ECCV|EPNet: Enhancing Point Features with Image Semantics for 3D Object Detection阅读笔记
论文题目:EPNet: Enhancing Point Features with Image Semantics for 3D Object Detection单位:华中科技大学1.解决的问题:1)第一是说之前基于级联的融合方法不能利用传感器之间的互补性,基于BEV的融合方法通过投影和体素化会损失一些信息,且没有在voxel feature和semantic feature之间建立一个很明确的相对关系。提出了LI-Fusion来解决。2)第二是说融合时如果引入摄像机图像受到光照遮挡的特征会引入干扰原创 2022-04-22 17:21:18 · 4079 阅读 · 0 评论 -
CenterPoint|Center-based 3D Object Detection and Tracking阅读笔记
题目:Center-based 3D Object Detection and Tracking2021CVPR1.摘要+intro原创 2022-03-30 23:34:32 · 980 阅读 · 0 评论 -
多模态融合2022|TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with Transformers
论文题目:TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with Transformers会议:CVPR2022单位:香港科技大学,华为1.摘要+intro作者认为目前的坑是在point-wise级的融合,之前方法存在两个主要问题,第一,它们简单地通过逐个元素相加或拼接来融合LiDAR特征和图像特征,因此对于低质量的图像特征,例如光照条件较差的图像,这样融合的性能会严重下降。第二,稀疏的LiDAR点与密集的图像像素之间原创 2022-03-24 16:28:38 · 8113 阅读 · 0 评论 -
PointAugmenting: Cross-Modal Augmentation for 3D Object Detection论文笔记
PointAugmenting: Cross-Modal Augmentation for 3D Object Detection(point-level fusion)CVPR20211.摘要+intro三维目标检测的挑战在于如何将二维camera图像与三维LiDAR点进行有效融合(基于point-level),作者发现point-level fusion方法中用同一分割网络提取的CNN特征来代替分割分数,MAP会显著增加,这说明了体现了CNN特征与3D探测器的点云融合的有效性。本文提出了一种新的跨原创 2022-03-08 09:46:26 · 4563 阅读 · 0 评论 -
多模态融合 2022|DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection阅读笔记
论文题目:DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection单位:google年份:20221.摘要+intro原创 2022-03-22 11:33:34 · 4086 阅读 · 5 评论 -
CVPR 2018|Frustum PointNets for 3D Object Detection from RGB-D Data论文笔记
Frustum PointNets for 3D Object Detection from RGB-D Data作者单位:Stanford UniversityCVPR 20181.摘要+intro以往的3d目标检测的proposal生成,主要是基于在图像或三维体素上,往往模糊了自然的三维模式和三维数据的不变性。我们就要对点云直接进行操作,如何有效地生成3D对象在3D空间中的可能位置是一个难点还没人解决。所以作者提出了一种新的基于RGB-D数据的三维目标检测框架Frustum PointNets。原创 2022-03-13 22:16:12 · 1900 阅读 · 0 评论 -
Cross-Modality 3D Object Detection论文笔记
Cross-Modality 3D Object Detection(point-wise fusion+roi-wise fusion)WACV 20211.摘要+intro本文重点探讨了图像和点云的融合在三维目标检测中的应用。以双目图像和原始点云为输入,提出了一种新颖的两级多模态融合网络用于三维目标检测,整个网路结构便于两级融合。通过点特征融合,可以使双目图像中的每个点具有丰富的语义信息。通过ROI-wise的融合,使得产生的proposal更鲁棒。利用联合anchor机制,我们可以很好地约束原创 2022-03-09 09:33:45 · 3949 阅读 · 2 评论 -
Deep Continuous Fusion for Multi-Sensor 3DObject Detection论文笔记
Deep Continuous Fusion for Multi-Sensor 3DObject DetectionECCV 20181.摘要+intro如何设计能够更好地利用多种形态的三维探测器仍然是一个有待解决的问题。本文提出了一种基于鸟瞰(BEV)的三维目标检测器,通过学习将图像特征投影到BEV空间进行融合,设计了一种端到端的可学习结构,利用连续卷积对不同分辨率的图像和LIDAR特征图进行融合。提出的连续融合层能够对两种模式下位置间的密集精确几何关系进行编码,从而设计出一种新颖、可靠、高效的基于原创 2022-03-08 20:34:53 · 2114 阅读 · 0 评论 -
Joint 3D Proposal Generation and Object Detection from View Aggregation论文笔记
Joint 3D Proposal Generation and Object Detection from View AggregationIROS 2018单位:University of Waterloo1.摘要+intro因为与2D目标检测器类似,大多数最先进的3D目标检测模型都依赖于3D区域的region proposals生成步骤来缩减3D搜索空间。使用地区性建议允许在稍后的检测阶段通过更复杂且计算成本更高的处理来生成高质量的检测。但是困难就是将这些RPN扩展到3D并不是一件轻而易举的任原创 2022-03-07 17:05:27 · 1458 阅读 · 4 评论 -
Multi-View 3D Object Detection Network for Autonomous Driving论文笔记
Multi-View 3D Object Detection Network for Autonomous DrivingCVPR 20171.摘要+intro针对自动驾驶场景中的高精度三维目标检测问题,提出了MV3D网络,我们首先提出了一种多视点编码方案,为了获得对稀疏三维点云的紧凑和有效的表示。多视点3D检测网络由两部分组成:3D Proposal Network和a Region-based Fusion Network。3D Proposal Network是利用点云的鸟瞰视图表示来生成高精度原创 2022-03-07 11:27:35 · 654 阅读 · 0 评论 -
4D-Net for Learned Multi-Modal Alignment 论文笔记
4D-Net for Learned Multi-Modal Alignment1.摘要+intro第一个问题因为单独一个时间点的点云数据有时可能是不够的,例如,对象在很远范围内反馈回的点很稀疏,或者对于非常小的对象点也很少,在其他方法与3D点云输入相结合时,其中更多的信息无疑包含在RGB数据中。 还有个问题就是针对传感器融合的方法,当两者在时间上进行传输时,还没有任何方法尝试将它们组合在一起。为了解决这些挑战,我们提出了4D-Net,它将点云信息和RGB相机的数据结合在一起,在时间上都是有效的和可原创 2022-03-05 12:35:18 · 1760 阅读 · 0 评论 -
Scalable Scene Flow from Point Clouds in the Real World论文笔记
Scalable Scene Flow from Point Clouds in the Real World(2021 Google出品)论文下载地址:https://arxiv.org/pdf/2103.01306.pdf1.摘要自动驾驶车辆在高度动态的环境中运行,这就需要准确地评估场景的哪些方面正在移动,以及它们将移动到哪里。一种新的三维运动估计方法称为场景流,使用连续的激光雷达扫描的3d点云数据,尽管这些方法受到现实世界带注释的LiDAR数据集较少的限制。在本论文的工作中,首先,利用Waymo原创 2022-03-03 18:41:43 · 918 阅读 · 0 评论 -
End-to-End Multi-View Fusion for 3D Object Detection in Lidar Point Clouds论文笔记
End-to-End Multi-View Fusion for 3D Object Detection in Lidar Point Clouds 谷歌20191.出发点瞰视图中的点云体素化,点云稀疏且具有高度可变的点密度,这可能导致检测器难以检测到远处或较小的物体(行人、交通标志等)。另一方面,透视视图提供了密集的观察,这可以允许对这样的情况进行更灵活的特征编码。所以两者结合可有效地学习利用两者的组成信息。2.文章主要贡献:1):...原创 2022-03-02 22:53:19 · 1028 阅读 · 0 评论 -
【多目标跟踪】Deep SORT: Simple Online and Realtime Tracking with a Deep Association Metric阅读笔记
论文下载地址: https://arxiv.org/pdf/1703.07402.pdf参考匈牙利算法: https://zhuanlan.zhihu.com/p/90835266参考马氏距离: https://blog.csdn.net/lzhf1122/article/details/72935323参考deepsort代码流程: https://blog.csdn.net/sgfmby1994/article/details/985172101.摘要 基于多目标跟踪的研究问题,发现SORT原创 2022-02-18 18:23:18 · 1604 阅读 · 0 评论