图像配准
文章平均质量分 94
Prettybritany
这个作者很懒,什么都没留下…
展开
-
【论文阅读】Unsupervised Misaligned Infrared and Visible Image Fusion via Cross-Modality Image Generation
不同的成像流程和传感器内的热传导导致观察到的红外和可见图像之间出现偏移和变形的不对齐。通过观察发现,直接融合不对齐的红外和可见图像往往会出现严重的幽灵伪影。受 [Wang et al., 2019a;Wang et al., 2019b] 的启发,通过图像到图像翻译来减少跨模态变化,并考虑到红外图像“强调结构胜过纹理”的固有特性,我们提出了一个专门的跨模态生成-配准范式,以减少空间偏移并在不对齐的红外和可见图像融合过程中缓解幽灵问题。原创 2024-03-01 13:26:02 · 1469 阅读 · 0 评论 -
【论文阅读】SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness
在本文中,提出了一个考虑图像配准、图像融合和高级视觉任务要求的多功能框架,称为 SuperFusion。它显着扩展了实际应用中图像融合的范围。SuperFusion 由三个组件组成,包括图像配准、融合和语义分割网络。首先,设计配准网络来估计双向变形场,以便可以更简单地使用光度损失和端点损失来提高精度。此外,还开发了一种对称联合配准和融合方案,以平衡输入模态的偏差,并进一步促进融合域中具有相似性约束的配准。原创 2024-02-29 15:36:57 · 1716 阅读 · 4 评论 -
【ICCV2023】LightGlue:Local Feature Matching at Light Speed
介绍了一种用于特征匹配的深度神经网络LightGlue。在SuperGlue成功的基础上,将注意力机制的力量与关于匹配问题的见解以及Transformer最近的创新相结合,赋予这个模型反思其自身预测可信度的能力,使计算量适应每个图像对的难度。LightGlue比之前表现最好的SuperGlue更快、更准确、更容易训练!原创 2024-02-03 22:14:35 · 1207 阅读 · 1 评论 -
【CVPR2023】Adaptive Spot-Guided Transformer for Consistent Local Feature Matching
然而,以往的方法在细阶段选择固定大小的网格进行匹配。然而,当图像之间的尺度变化太大时,正确的匹配点可能超出网格的范围,导致匹配失败。然而,一些最近的研究出,Transformer在连续密集预测任务中缺乏空间上的归纳偏差,可能导致局部匹配结果的不一致。该模块的主要目的是通过引导注意力机制来实现对地标点周围区域的聚合,以便提高匹配的准确性和鲁棒性,从而更好地实现图像间的匹配。本研究的创新之处在于引入了点引导聚合模块,以维持局部一致性并避免干扰因素的影响,以及自适应缩放模块,有效处理局部特征匹配中的尺度变化。原创 2024-02-03 22:28:05 · 2047 阅读 · 1 评论 -
【ACCV2022】MatchFormer: Interleaving Attention in Transformers for Feature Matching
主要工作:本文的主要工作是提出了一种新的层级提取和匹配变换器,称为MatchFormer,用于局部特征匹配任务。背景:局部特征匹配是一个在亚像素级别上计算密集的任务。传统的基于检测器和特征描述符的方法在低纹理场景中表现不佳,而基于CNN的方法虽然具有序列化的提取-匹配流程,但未能充分利用编码器的匹配能力,同时容易过度负担解码器进行匹配。研究方法:提出了一种新的层级提取和匹配变换器,MatchFormer。原创 2024-02-03 22:22:34 · 1197 阅读 · 1 评论 -
【CVPR2021】LoFTR: Detector-Free Local Feature Matching with Transformers
论文链接:LoFTR: Detector-Free Local Feature Matching with Transformers | IEEE Conference Publication | IEEE Xplore代码:zju3dv/LoFTR: Code for "LoFTR: Detector-Free Local Feature Matching with Transformers", CVPR 2021, T-PAMI 2022 (github.com)We present a novel m原创 2024-02-03 22:16:49 · 1259 阅读 · 1 评论 -
【CVPR2020】SuperGlue:Learning Feature Matching with Graph Neural Networks
这篇文章介绍了一种通过同时寻找描述子和拒绝不匹配的特征点来匹配两种局部特征的神经网络。通过求解可微的最优传输问题来估算分配,该问题的代价通过图神经网络来预测。我们介绍了一种灵活的基于注意力机制的上下文聚合机制,使得superglue可以同时推理出底层的3D场景和特征分配。与传统的手工设计的方法相比,我们的技术通过端到端的训练从图片对中学习几何变换和3D世界的规则的先验知识。superglue比其他学习方法表现得更好并且在具有挑战的现实世界的室内和室外环境的姿态估计任务中取得了最好的结果。原创 2024-02-03 22:05:59 · 1099 阅读 · 1 评论 -
【ICCV2021】COTR: Correspondence Transformer for Matching Across Images
主要工作:该论文提出了一种基于深度神经网络的图像对应框架,可以在给定两幅图像和一幅图像中的查询点的情况下,在另一幅图像中找到其对应点。该方法可以选择只查询感兴趣的点并检索稀疏对应关系,或者查询图像中的所有点并获得密集映射。在推理阶段,通过逐步缩小区域的方式,应用对应网络,形成一种多尺度管线,能够提供高度精确的对应关系。背景:在计算机视觉领域,寻找图像间的对应关系是一个重要且具有挑战性的问题,涉及到多种应用,包括立体视觉和光流估计。原创 2024-02-03 21:53:09 · 1048 阅读 · 1 评论 -
【论文精读】SuperPoint:Self-Supervised Interest Point Detection and Description
研究背景:1.提取特征点是许多视觉任务的第一步,例如SLAM、SfM、相机校准以及图像匹配等。2.卷积神经网络在图像作为输入的任务上表现优越。3.训练基于强监督的卷积神经网络来检测特征点很难。研究方法:1.提出了一种自监督方法,通过特征点检测器它自己来监督,创造一个真实图片的特征点的伪基准标准(ground truth)的数据集。原创 2023-11-17 16:45:30 · 163 阅读 · 0 评论 -
【论文精读】D2-Net:A Trainable CNN for Joint Description and Detection of Local Features
但是,情况并非那么简单,因为描述符内的不是所有变量都是"鉴别性"的:两个关键点可能具有小的距离测量,因为它们的描述符内的大多数变量具有相似的值,但是那些变量可能对实际的匹配无关。放弃特征点检测而直接在整张图片上进行稠密的描述子提取“[10, 15, 48, 52].” 这种方法比稀疏特征点匹配“[45, 58, 69],” 显现出更好的匹配结果。传统稀疏特征提取的方法基本上都是先进行特征提取“[7, 19, 29, 31, 33]” ,然后提取描述子“[7, 9, 24, 29, 44]”。原创 2023-11-21 19:43:45 · 253 阅读 · 0 评论