- 博客(28)
- 收藏
- 关注
原创 周报-240329
将点云投影到平面(通过相机内参投影实现,具体函数为 dpt_3d_comvert.proj_3to2),然后去除投影到平面范围外的点和深度有问题的点,接着遍历所有点,根据坐标绘制深度图。结合以上三点,我们可以设计不同尺度的 2d 集合与 3d 集合,来让他们进行 top-k 互选择(他们的索引值相同,但是范围不同),更大的范围可能带来更优秀的感受野。然后的步骤与第一个点一样,根据相机参数,将顶点坐标的正方体从相机坐标投影到图像坐标系,取 x,y 的范围。
2024-03-29 07:00:00 1590
原创 周报-240322
把 2D 与 3D 映射到同一个空间维度中,目标是让他们的距离更加接近。**如果 I 和 P 表示相同的底层几何形状,则 F(dI , dP ) < m,其中 m 是预定义的距离。**同时,还将结果反向映射回去,有利于稀疏到密集深度估计。
2024-03-21 22:38:07 603
原创 周报-240315
FreeReg-D PnP: 表示使用扩散特征、几何特征与 Kabsch Solver。FreeReg-D PnP: 表示使用扩散特征、几何特征和 PnP Solver。FreeReg-D PnP: 表示只使用几何特征与 Kabsch Solver。中的 139 行、257 行、280 行的路径全部换成你下载模型的路径。FreeReg-D PnP: 表示只使用扩散特征与 PnP Solver。另外两个数据集指标全空,也是缺了这个文件夹,除此之外,还要进入。2.FreeReg 指标分析。
2024-03-14 23:51:30 356
原创 周报-240308
使用Manhattan距离度量的区间排序优化方法,通过迭代生成 supervoxel,以期望的 supervoxel 数量为目标。到这个位置卡住了,问题是 HuggingFace 不翻墙访问不了,而代码中需要去下载预训练的模型,目前正在寻找解决方案。需要跟着 MiDaS 的本地导入方法做,但是有一些比较模糊的问题(我没搞懂),与后面有一些关联。的仓库,这里不能按照官网的来,连接会超时,把预训练的模型也下载下来。修改343行地址为 MiDaS 的地址。1.FreeReg 代码运行。创建 conda 环境。
2024-03-08 01:04:22 509
原创 周报-240301
中间特征,即扩散特征,提取自 depth-to-image 扩散模型,在图像和点云之间的语义是一致的粗匹配准确、鲁棒性高效果提升显著(inlier ratio, registration recall)
2024-03-01 01:12:32 402
原创 周报-240207
出现问题,然后换到了 3090 上跑,没有出现这个问题,推测在 SPNet 上可能是 s3dis 数据集没有修复导致的,安装 cut-pursuit (应该都已经装好了)看看 partition/cut-putsuit/ 有没有。遇到一些路径的问题,找不到 libply_c 和 libcp,把他们复制到能找到的路径就行了。还缺了库 pypcd,以及 cStringIO 在 python 3.x 中不使用的问题。本周进行了 SGNet 的配置运行,通过这个网络来寻找 SPNet 的问题。
2024-02-06 03:13:19 388
原创 周报-240130
文献详细介绍了FreeReg的方法,包括数据预处理、网络结构和模型训练策略。其中,提到了使用ControlNet和SuperGlue等方法作为基线。文中对FreeReg与其他相关工作,如2D3D-Matr,进行了比较。通过在RGBD-Scene-v2数据集上的实验证明,FreeReg在不同的评估指标上取得了良好的性能。文章在表格中展示了使用不同扩散层特征构建跨模态扩散特征的效果。结果表明,选择适当的扩散层组合可以获得理想的对应和注册性能。
2024-01-30 00:55:00 1034
原创 周报-231101
老方法(先检测后匹配,detect-then-match)存在问题,因为关键点检测不兼容和特征描述不一致。本方法先找局部块进行粗匹配,然后在局部块里进行细致的匹配(以 pixel 和 point 为单位)。粗匹配使用 transformer,且能够跨模态。
2023-11-02 09:03:34 48
原创 周报-230919
对于 2d 图像,也是如此,不过使用的是 2d 网格。文中把它叫做 2D-3D place recognition,而 place recognition 的主要目标是:在给定一张图像的情况下,确定该图像是来自何处的,通常是通过与一个地点数据库中的图像进行比较来实现的。有时候,会遇到前后距离很长的情况,比如单复数,前面指定了单个的物品,在经过很长的文本后,一定要使用 is。,表示是否要继续保持上一个 c 值,在大多数情况下,值接近 0 或 1,因此值很小,不存在梯度消失的问题了)LSTM 中的值不同)。
2023-09-19 14:15:36 44
原创 周报-230912
其实就是在处理的过程中,将上一个处理单位的某些特征输入到下一个单位中。如图即为循环神经网络的例子。激活值不一定正向传递,也有可能为双向,比如 BRNN。接下来我们来看看公式。
2023-09-12 14:03:41 56
原创 周报-230906
而我所关注的是,是第三种方式,我对源码进行了分析与查看,并进行了运行(目前还没成功,具体问题是 cuda 版本不匹配,需要换版本,还在研究如何在一台电脑上配置多个版本的 cuda)。,我们按照上述步骤,取某层的激活值,分别计算两者的 Gram matrix(这样做可以获得风格,实际上所做的计算是两个单独的激活值相乘,放在对应的位置上,矩阵规模为。,先选择一个预训练的卷积网络,然后分别对 C 和 G 运行,我们选取某一层的激活值,计算两者差值的 L2 范数,作为内容代价函数。计算的结果存储在名为。
2023-09-05 22:02:09 140
原创 周报-230825
函数中进行的,该函数会计算预测的变换矩阵与Ground Truth之间的匹配召回率,与 Registration Recall 的计算对应关系在于,它衡量了特征匹配是否在一定误差范围内准确地预测了点云之间的变换。综合来说,相机参数矩阵用于定义一个相机的光学特性,包括焦距和主点,从而将三维世界中的点映射到二维图像平面上的对应点。:如 1.8 中的网络结构示例,在最后会把卷积起来的元素平摊成一个向量,然后使用该向量进行计算(类似前面所讲的神经网络),得到一个新的向量,把该层称之为全连接层。
2023-08-24 23:18:16 390 3
原创 周报-230814
以前有一些数据处理系统或者学习系统,需要多个阶段的处理。端到端的深度学习就是忽略了这些阶段,用单个神经网络替代它,一步到位。举一个最近看论文的例子:比如 SIFT 算法,提取了特征描述子,就是 2D 图像匹配的一个中间步骤。这种不属于端到端的学习。事实证明,端到端深度学习的挑战之一,就是需要大量的数据支撑,传统的多阶段处理可以满足少批量数据并表现的很好。
2023-08-13 23:08:42 98 1
原创 周报-230802
把 2D 与 3D 映射到同一个空间维度中,目标是让他们的距离更加接近。**如果 I 和 P 表示相同的底层几何形状,则 F(dI , dP ) < m,其中 m 是预定义的距离。**同时,还将结果反向映射回去,有利于稀疏到密集深度估计。
2023-08-02 14:13:00 44 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人