自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(124)
  • 收藏
  • 关注

原创 ubuntu conda pip 环境配置 备忘

记录一下不想每次都百度了Pip 全局配置源pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple可选源:(1)阿里云 http://mirrors.aliyun.com/pypi/simple/(2)豆瓣http://pypi.douban.com/simple/(3)清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/(4)中国科学技术大学 http://pyp

2020-12-07 15:47:02 603

原创 RoadMap: A Light-Weight Semantic Map for Visual Localization towards Autonomous Driving

华为自动驾驶部门 基于轻量级语义地图的视觉定位工作

2022-01-06 12:50:03 2862 1

原创 Estimation with Fast Feature Selection in Robot Visual Navigation

IEEE ROBOTICS AND AUTOMATION LETTERS, 2020本文方法与基于贪心算法的特征选择方案性能相近,但是其时间复杂度为线性,而贪心算法时间复杂度O(n2),对于特征数目较多,成百上千的情况,本文算法能够实时。...

2022-01-04 20:30:11 851

原创 【论文笔记】INTERPRETING AND BOOSTING DROPOUT FROM A GAME-THEORETIC VIEW

ICLR 2021, 上交本文贡献:(1)发现过拟合的样本中往往建模了更强的博弈交互;(2)证明了dropout对于博弈交互强度的抑制;(3)提出了博弈交互损失函数,能够替代 dropout 提升神经网络的泛化能力。相比于传统的Dropout,交互损失函数能更加显式地控制对交互强度的惩罚,在网络训练过程中实现从过拟合到欠拟合的精确控制,并且克服了dropout和batch normalization的不兼容问题。一、探索交互强度与泛化能力的关系——过拟合意味着更多的博弈交互首先,论文将研究.

2021-10-21 17:41:30 893

原创 【论文笔记】视觉重定位 PixLoc || Back to the Feature: Learning Robust Camera Localization from Pixels to Pose

本文提出了基于metric learning 的视觉重定位方法,PixLoc。只需要给定一张查询图像和场景的三维模型,以及具有先验位姿的参考图像,即可进行重定位。这种将模型参数与场景几何分离开来的度量学习方法,使得PixLoc能够轻易的泛化到任意场景中。视觉定位可以被分为三步:估计场景中的大致位姿提取鲁棒不变的特征回归精确的位姿估计值或者场景坐标估计值其中步骤1,2不受限于某一特定场景,通过图像检索可以解决1,现有的CNN可以提取鲁棒的特征,解决了2。目前步骤3,即位姿估计是通过经典几何方法完

2021-10-09 17:10:24 4637 9

原创 【论文笔记】Fine-Grained Segmentation Networks: Self-Supervised Segmentation for Improved Long-Term Visual

针对视觉定位的语义分割网络, ICCV 2019论文工作的动机:using more segmentation labels to create more discriminative, yet still robust, representations for semantic visual localization本文主要针对Long-term的视觉定位任务,提出了一个精细化分割网络,可以对场景进行精细化fine-grained的分割,得到相比于现有语义分割网络的分.

2021-09-20 22:32:15 792

原创 深度学习中的inductive bias解释

机器学习算法在学习过程中对某种假设(hypothesis)的偏好,称为“归纳偏好”(inductive bias),或简称为“偏好”。所谓的inductive bias,指的是人类对世界的先验知识,对应在网络中就是网络结构。下面是一些inductive bias的例子:Algorithm | Inductive BiasLinear Regression | The relationship between the attributes x and the output y is linear. T

2021-09-19 15:49:04 4124

原创 条件网络层 介绍与脉络梳理:A Retrospective for “FiLM- Visual Reasoning with a General Conditioning Layer“

网址链接在很多多输入任务中,例如 visual question-answering (image + language), instruction-following (video + language), class-conditional image generation (image + class label), style transfer (style image + context image)等,需要根据多种输入特征来进行预测。本文主要介绍一种可以嵌入到CNN模型中的通用网络层,即.

2021-09-19 15:06:50 3483 3

原创 [论文笔记]端到端视觉定位 DA4AD: End-to-End Deep Attention-based Visual Localization for Autonomous Driving 2020

百度自动驾驶部门注意力机制在视觉重定位任务中的应用,端到端网络,可用于明显外观变化的场景,cm级精度,优于基于激光雷达的定位方法。本文使用CNN以及注意力机制训练描述子与关键点,与数据库图像做匹配然后解算相机位姿。构建特征金字塔,使用全卷积网络 独立 提取密集特征。构建定位地图: attentive keypoints + features + 3D coordinates, 3D 坐标来自于激光雷达根据先验位姿找到附近的三维点,在先验位姿附近多次采样,根据这些位姿将三维点投影到当前图像中进.

2021-09-14 22:16:32 1517

原创 b站 史雪松:室内机器人系统的长期视觉定位与建图 简单记录

视频链接室内机器人系统的长期视觉定位与建图主要面临的问题包括:缺乏长期采集的数据以及真值,环境随时间的变化,多机协作等。作者对于以上问题提出的解决方案有:缺乏数据:发布了室内多传感器数据集 openLORIS-scene, 以及室内外长期激光数据集。针对环境变化:提出DXSLAM:现有基于深度学习成果的集大成者(利用superpoint替换orb, 利用hfnet做定位)提出RaP-Net:在图像中的静态稳定区域提取关键点。多机协作:A collaborative visual sl

2021-08-02 22:49:09 718

原创 2021-06-23

https://www.jianshu.com/p/b33ca81b19b5protobuf的使用教程,有空整理下

2021-06-23 10:49:23 110

原创 【论文调研】用于无人机定位的特征 :UAV Localization in GNSS-Denied Environments, Based on Matching of Numeric

BRM Localization:UAV Localization in GNSS-Denied Environments, Based on Matching of Numerical Map and UAV Images 2020韩国大田科技大学城市机器人实验室2D到2D的匹配,只需要提前对地图中的建筑物区域进行分割,并计算building radio。不需要初始位姿也可以进行全局定位(实验测试了2.2km×2.6km范围内进行全局定位)仅仅使用了building

2021-04-29 21:17:36 1439

原创 【论文阅读】无人机定位方法调研 A review on absolute visual localization for UAV 2021

RVL(relative visual localization)即帧到帧的匹配。包括VO和slam.VO、VIO: 光流法slam: 相比VO,增加了闭环检测和全局BA的特性,没有闭环的情况下就退化成了VORVL的主要问题是累计漂移,长距离航行需要漂移误差有界,而RVL解决不了这个问题。AVL(absolute visual localization)AVL的主要目标是根据无人机当前的观测,在地图中进行匹配,从而在地图中对自身位置进行定位。现有的地图有两种:包括卫星地图和自行采集的地图

2021-04-29 21:13:31 2650

原创 【论文笔记】实时、SOTA的激光里程计 Efficient LiDAR Odometry for Autonomous Driving 2021

Efficient LiDAR Odometry for Autonomous Driving 2021浙江大学地面点在BEV中处理,非地面点在range-image中处理,解决了range-image中的相邻的地面像素点在实际中相距缺非常远从而增大了匹配误差的问题。采用scan2model的方式提升匹配精度并达到了SOTA,但是局部model使用三张二维image来存储,因此内存消耗很小且有界。最终在嵌入式设备上的速度达到了37fps, 可以说是精度、速度、内存消耗的集大成者。概述:现有激光里

2021-04-24 22:14:06 848

原创 笔试中的 ACM模式 需要注意的问题

之前一直在leetcode上刷题,核心代码模式用的过于舒适,笔试前听说是ACM模式,就临时准备了下ACM模式的常用IO方法。其实常用的不多,本着奥卡姆剃刀原则只写了两个常用的IO方法,足够应付大多数笔试(美团笔试中没有翻车):1. cin>>x :自动跳过 tab/space/enter 取数据;从缓冲区读数据到变量x,而不是从键盘输入读取。(读数据前清空缓冲区: cin.sync();)用法解析输入一个数字或字符接收一个字符串(到char数组或string),遇 tab/

2021-03-23 19:50:58 7021

原创 lego-loam代码阅读-- 特征提取部分

lego-loam 代码阅读记录 ------ 特征提取与关联部分:本文对 lego-loam代码的特征提取部分进行总结,以方便用python复现lego-loam的特征提取以及配准过程。最后对提取特征点的整个过程中用到的阈值进行了整理。1. imageProjection.cpp:首先说明 labelMat 的定义:size: (64,1800) 记录了点的聚类情况:-1: 地面点0: 初始值1,2,3,…: 有效聚类点999999: 无效聚类点.各个函数说明:projectPo

2021-03-23 19:07:34 917

原创 SLURM 作业调度系统使用 常用命令

SLURM 作业调度系统使用交互式申请终端进行代码调试:$ salloc -N 1 --cpus-per-task=4 -t 5:00 -p GPU-V100-N <节点数量>–cpus-per-task=<单进程 CPU 核心数>–gres=gpu:<单节点 GPU 卡数>-t <最长运行时间>-p <使用的分区>–qos=<使用的 QoS>执行成功后,SLURM 会给你一个新的 Shell,注意此时用户所在节

2021-02-23 22:44:13 2876

原创 【论文笔记】2019 基于激光点云pole检测的重定位方法 Long-Term Urban Vehicle Localization Using Pole Landmarks

https://github.com/acschaefer/polex本文提出了一个基于激光三维点云的二维车辆定位系统,其根据道路场景中的 “pole landmarks” (极点/柱状目标,即交通灯杆,树,灯箱等)来进行定位。这不是首个提出该类定位方法的工作,却是首个同时考虑了 “laser ray endpoints” 以及 “the free space in between the laser sensor and the endpoints” 的工作。在进行重定位时作者使用粒子滤波的方式.

2021-02-23 22:17:20 2051

原创 【论文笔记】基于点云柱面投影图的平面特征提取SLAM: Fast planar surface 3D SLAM using LIDAR 2017

本文提出了可以在大场景下实时运行的SLAM系统,其使用平面表面段(planar surface segments)来表示环境,因为它们在室内和室外城市空间中都很普遍。本文的三个创新点:使用了现有的方法(原本是设计用于RGBD数据),在全景视图上对点云进行分割:将点云划分为三个双通道的全景图上,基于Delaunay三角剖分以及区域合并,实现点云的2.5D快速分割。《Fast pose tracking based on ranked 3D planar patch correspondences》

2021-02-14 22:15:20 1049

原创 【论文笔记】激光点云柱面投影图的显著性检测 LiDAR Imaging-based Attentive Perception

内华达大学里诺分校在嵌入式处理器设备上(飞行器)达到了毫秒级执行时间, 使用的激光雷达型号 :  OUSTER OS1-64 (图像尺寸2048×10),OUSTER OS0-128(图像尺寸2048×10)这种激光雷达可以提供的信息包括: 距离, 强度, 反射率(表面属性)以及环境的近红外成像(环境中红外源的图像)本文融合了上述几种数据源,将激光雷达作为新型相机, 在其上进行语义分割,然后在最显著的目标上进行检测\分类\识别等, 因而降低了计算量。本文方法概述:使用四种数据图像(距离, .

2021-01-30 20:08:16 594

原创 【论文笔记】显著性信息辅助的视觉SLAM系统 SBAS: Salient Bundle Adjustment for Visual SLAM

重庆大学, 汽车工程专业, 重庆大学机械传动重点实验室本文并不是第一个 利用显著性预测结果改进SLAM系统的工作,但是之前的工作都没有意识到显著性检测模型存在中心偏差的问题,这导致在没有显著性区域的场景中,显著性模型会将注意力集中在图像的中心区域,造成轨迹追踪失败。本文首先用语义分割模型SDC-Net对kitti数据集进行语义分割,得到包含静态目标的真值标签,然后根据此salient-kitti数据集对显著性模型进行训练,克服了中心偏差,在室内室外均取得了SOTA的精度。Abstract传统的视觉.

2021-01-23 20:50:56 856 3

原创 【论文笔记】高效、稀疏的三维激光SLAM : A Novel 3D LiDAR SLAM Based on Directed Geometry Point and Sparse Frame

中国科学院自动化研究所基于scan2map的三维激光slam鲁棒性好, 深度信息精确, 是相关领域的研究热点。但是,为了达到满意的定位精度,还需要构建一个大的稠密地图,这导致scan2map的匹配非常耗时。为了解决这个问题,本文提出了一种基于有向几何点(DGP)和稀疏帧的新型3D激光SLAM(包括闭环检测以及位姿图优化)。前者用于在空间维度上提供点的稀疏分布,后者用于在时间序列中产生帧的稀疏分布。该策略提升了三维激光SLAM的效率和里程计位姿估计的精度。为了补偿稀疏帧导致的定位和建图的精度损失,本文.

2021-01-13 16:51:55 524 1

原创 【论文笔记】点云上采样网络 PU-GAN: a Point Cloud Upsampling Adversarial Network ICCV 2019

代码链接 : 链接论文介绍: 链接香港中文大学本文方法可以直接对激光雷达的scan数据进行上采样以及数据修正,得到的结果更加完整、均匀:本文在合成数据集以及真实数据集上进行了测试,在上采样点云的均匀性、靠近曲面性(生成的点云要更加接近表面)、三维重建质量三个方面超越了现有方法。相关工作现有点云上采样的方法有三种:1. 基于优化的方法这些方法都不是以数据为驱动的,它们严重依赖于先验知识,如光滑曲面的消耗、法向估计等2. 基于深度学习的方法点云上采样与点云补全(point comple.

2020-12-14 12:17:33 2550 1

原创 【论文笔记】 ICRA 2021 通用无监督激光里程计 Self-supervised Learning of LiDAR Odometry for Robotic Applications

Self-supervised Learning of LiDAR Odometry for Robotic Applications ICRA 2021苏黎世联邦理工学院机器人系统实验室, 马克斯·普朗克学习系统中心,德国/瑞士视频链接:https://www.bilibili.com/video/av287853798代码链接: https://github.com/leggedrobotics/DeLORA论文链接:https://arxiv.org/pdf/2011.05418.pdf

2020-11-24 15:00:28 1321 5

原创 python中 使用EVO工具 批量评估里程计 脚本

背景从win10远程ubuntu服务器跑代码,使用slam的evo工具在KITTI odometry数据集上对网络预测的位姿序列进行评估,一共十个序列,需要输10次命令行(evo_traj/ evo_ape/evo_rpe…balabala),非常不方便,因此想写在python文件的test.py里面,输出预测位姿后保存到文件然后调用命令行直接评估,同时保存评估结果.理想丰满,现实就不是了: 发现编辑的脚本文件跑不通,查了下发现是dos与unix的底层字符不一样(\\n 和\n的区别),以及脚本语言太底

2020-11-21 16:55:34 929 2

原创 【论文笔记】ICRA2019 视觉里程计的损失函数:Beyond Photometric Loss for Self-Supervised Ego-Motion Estimation

Beyond Photometric Loss for Self-Supervised Ego-Motion Estimation港科大,腾讯优图,香港珠穆朗玛峰创新科技(Altizure)本文对现有的视觉历程计方法使用的损失函数进行了总结,并提出了一种基于几何一致性的损失函数。现有里程计方法主要分为两类:间接法:SLAM系统常用,首先计算出一些鲁棒的特征点边缘集合或者是光流信息,然后用滑窗或者全局BA最小化几何误差。直接法:VSLAM常用,直接优化对应像素的光度误差。光度误差的前提是

2020-11-21 15:48:58 1557

原创 【论文笔记】无监督的视觉里程计、深度图估计、视差图估计方法:Robustness Meets Deep Learning: An End-to-EndHybrid Pipeline...

Robustness Meets Deep Learning: An End-to-EndHybrid Pipeline for Unsupervised Learning of Ego motion宾夕法尼亚大学本文提出使用深度学习方法和几何RANSAC结合的无监督相对位姿回归pipeline, 分别对光流图和视差图进行预测,然后使用RANSAC求解内点集合以及相对位姿。[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-W7xF2tLu-1605529481292)(

2020-11-16 20:26:04 624

原创 外网win10 远程桌面/ssh到 内网Ubuntu20

最近终于实现了这个功能,可以带着我的小新pro13随地远程实验室的服务器了,爽。为什么不用teamviewer ?延迟大,极有可能被检测为商用然后收费,最要命的是,如果服务器没有插显示屏,teamviewer是不能显示的。实现配置:外网win10,内网ubuntu20(理论上ubuntu16-20都可以)实现方法使用win10自带的远程桌面 + ubuntu 自带的屏幕共享为了解决内外网的IP地址问题,需要在路由器上将服务器的IP固定,并设置专门的端口转发。下面开始:ubuntu服务器端

2020-11-11 22:16:52 2475 2

原创 【论文笔记】无监督的激光雷达里程计CAE-LO 2020

LiDAR Odometry Leveraging FullyUnsupervised Convolutional Auto-Encoder for Interest Point Detection and Feature Description代码链接武汉大学测绘遥感信息工程国家重点实验室,芬兰地理空间研究所遥感与摄影测量系和激光扫描研究卓越中心湖北工业大学经济管理学院本文工作:本文提出了一种有效的激光点云关键点检测和特征点提取的方法,两种方法都是无监督的。通过关键点匹配对求解关键帧之

2020-11-11 19:57:23 592

原创 无监督学习的视觉里程计 UnDeepVO: Monocular Visual Odometry through Unsupervised DeepLearning 论文笔记

埃塞克斯大学,单目视觉里程计VGG + 伪孪生FC网络是位姿预测网络的常用结构(undeepVO,deepPCO)这是一篇单目视觉里程计的工作, 其贡献以及特点主要有:使用无监督学习进行训练, 不受数据集真值的限制相比以往的单目里程计,可以恢复出绝对尺度同时完成了视觉里程计和深度估计两个任务训练阶段使用双目图像作为输入,测试时使用单目输入。方法概述:以双目相机k时刻和k+1时刻的左右图像作为输入,因此有4个图。网络由深度估计网络、相对位姿估计网络两个部分组成,分别生成深度图和相对位.

2020-11-09 15:51:35 1439

原创 【论文笔记】基于点云投影的激光里程计: CNN for IMU Assisted Odometry Estimation using Velodyne LiDAR

论文将三维点云编码成2维矩阵,使用CNN对其进行特征提取和后续处理.类似的方法在其之前的工作中被用于ground segmentation 以及 vehicle detection:《M. Velas, M. Spanel, M. Hradis, and A. Herout, “CNN for very fastground segmentation in Velodyne lidar data,” 2017. [Online]. Available:http://arxiv.org/abs/1709.

2020-09-27 11:43:35 496

原创 【论文笔记】动态图神经网络处理点云 LDGCN: Linked Dynamic Graph CNN 2019

南方科技大学代码链接https://github.com/KuangenZhang/ldgcnn本文是基于DGCNN和PointNet进行改进之后的工作,主要是用于点云特征提取任务,可以很方便的扩展到点云分类和点云分割任务。主要工作就是在DGCNN的基础上加了不同层之间的skip connections,作者称之为"link",使得点云分类精度有了0.7% 的提升,而且由于去掉了点云变换网络,速度比DGCNN更快了。现有的点云分类任务上精度最好的网络是DGCNN(1024个点,不使用额外的法向量信.

2020-09-26 16:10:53 2432 1

原创 【论文笔记】点云关键点检测和特征提取 USIP: Unsupervised Stable Interest Point Detection from 3D Point Clouds 2019 论文笔记

新加坡国立大学代码链接:https://github.com/lijx10/USIP这是一篇通过无监督学习来进行点云关键点检测的文章.整体的网络结构:首先将输入的点云进行随机旋转平移变换,网络分别对两个点云进行关键点提取得到关键点QQQ,并对每个关键点的不确定度进行预测得到∑\sum∑。损失函数Probabilistic Chamfer Loss作者希望网络能够学习点云中的稳定的关键点(repeatability),也就是说两个场景信息大部分重合的点云,即网络的两个输入,应该能够.

2020-09-21 23:08:53 3647

原创 【论文笔记】动态图神经网络处理点云 DGCNN : Dynamic Graph CNN for Learning on Point Clouds 2019

DGCNN,继Pointnet之后点云特征提取的又一代表性工作.Pointnet是先在每个点的特征上各自进行MLP提取(没有点与点之间的特征交流),最后使用MAXpool将所有点的特征融合在一起,得到一个对总体点云的1024维的特征描述子,因此可以将Point net作为点云全局特征的提取器.相比Pointnet,DGCNN则可以对点云的局部几何特征进行提取和利用.DGCNN采用了图神经网络对点云特征逐步进行更新和融合,即Edge conv.DGCNN中的节点每一个点云的特征,边由在特征空间中定义的邻

2020-09-20 21:37:18 2572

原创 【论文笔记】 激光里程计 DeepPCO:End-to-End Point Cloud Odometry through Deep ParallelNeural Network 2020

In this paper, we investigate two key issues which impact the performance of PCO using end-to-end deep learning. The first is the representation (encoding) of the point cloud itself. This ranges from the raw point cloud to various approaches to projecting

2020-09-17 22:25:52 580

原创 【论文笔记】激光里程计 DeepLO:Geometry-Aware Deep LiDAR Odometry 2019

视频链接:链接使用surfel based 的表示方法(vertex+normal)作为网络的输入,避免了量化损失,看起来是一种不错的表示方法,既没有误差,保留了点云数据的精确性,还以一种map 的形式提供邻域查询功能,不需要KDtree检索之类。此外,使用几何一致性约束的损失函数进行无监督训练,通过扰动成像的方法证明了损失函数的可行性。并在部分场景上取得了优于有监督训练的精度。DeePLO同样对点云的表达形式做出了优化,使用了与range image类似的一种图像坐标参数化表示:(uv)=((.

2020-09-17 17:49:48 1855 2

原创 【论文笔记】大规模点云分割网络 RangeNet++ 2019

机构:波恩大学代码链接: https://github.com/PRBonn/lidar-bonnetal本文解决的问题是旋转式激光雷达点云数据的语义分割问题,其在进行处理时以原始点云作为输入,不丢弃任何点的信息。分割精度超越了现有SOTA,且速度快于激光雷达的帧率(10Hz)RangeNet++RangeNet++ 基于2D-3D投影的分割思路,处理流程大概可以分为4步:将点云数据转换为range image(距离图像,应该是名称中’range’的由来)在range image上进行2.

2020-09-09 16:54:59 4759 9

原创 【论文笔记】点云配准网络 3DRegNet: A Deep Neural Network for 3D Point Registration 2020

Instituto Superior T ́ecnico, Lisboa; Google;印度科学研究所,班加罗尔;马里兰大学帕克分校代码链接:https://github.com/3DVisionISR/3DRegNet本文提出了一种基于深度学习的点云配准方法3DRegNet,超越了现有RANSAC和ICP的精度,同时在CPU上也达到了25倍RANSAC的速度。注意3DRegNet假设两个点云之间的对应关系是给定的,3DRegNet只负责剔除噪声点,生成位姿变换矩阵这两个任务。实验部分对现有的.

2020-09-08 22:54:07 2396 2

原创 【论文笔记】激光里程计网络 LO-Net:Deep Real-time Lidar Odometry2019

厦门大学,路易斯安那州立大学本文提出了激光里程计LO-Net,其通过多任务学习对点云数据同时进行法向量估计、动态区域预测、相机位姿回归。此外还设计了一个scan2map 的建图模块来降低累计误差、提升里程计的精度。达到了超越DP-based方法、与几何结构方法SOTA–LOAM相似的里程计性能。网络结构网络输入为前后帧的点云数据,网络分为三个部分:法向量估计网络动态区域mask估计网络位姿回归孪生网络最后,还有一个将当前帧的点云注册到map中的建图模块,负责将预测的相对位姿根据m.

2020-09-07 12:05:53 1895 6

原创 【论文笔记】点云配准网络 PCRNet: Point Cloud Registration Network using PointNet Encoding 2019

卡内基梅隆大学, 富士通 , Argo, 苹果本文使用PointNet对点云提取全局特征,不需要计算点云之间的一一对应关系,因此能够实现快速的点云配准。PCRNet根本没有用到局部特征,因此在速度上有优势,精度上会有所妥协。加入了局部特征信息的模型应该会有更高的精度。PCRNet 的另一特点是其迭代版本鲁棒性很强,可以对类内不同实例进行鲁棒的配准,其他配准方法不行,还是只使用了全局特征的原因。模型整体结构简单,可以快速上手。PCRNet输入为template点云和source点云,首先使.

2020-09-05 23:43:19 5014 6

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除