自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(24)
  • 收藏
  • 关注

原创 【论文阅读】SDCFusion:A semantic-driven coupled network for infrared and visible image fusion

1.传统方法需要手工设计融合规则;时间消耗较高。2.现有的图像融合方法只关注像素级融合,忽略了场景中的高级语义信息。

2024-06-10 10:39:56 786

原创 【论文阅读】CrossFuse: A novel cross attention mechanism based infrared and visible image fusion approach

红外和可见光图像之间的相似性差异大,使得从这两种模态中提取互补信息变得困难。多阶段融合方法在处理图像时可能会导致信息丢失,并且通常计算成本较高。设计有效的端到端融合模型面临挑战,需要精心设计的损失函数来优化性能。现有基于Transformer的方法过于侧重于自注意力机制而没有充分探索交叉注意力机制,忽视了增强互补信息的重要性。

2024-06-10 10:35:16 205

原创 【论文阅读】Vision Mamba: Efficient Visual Representation Learning with Bidirectional State Space Model

状态空间模型(SSMs)在长序列建模方面展现出了巨大潜力,如Mamba。然而,将SSMs应用于视觉数据表示存在挑战,因为视觉数据对位置敏感,且需要全局上下文以理解视觉信息。

2024-06-10 10:33:50 303

原创 【论文阅读】MambaDFuse: A Mamba-based Dual-phase Model for Multi-modality Image Fusion

基于卷积神经网络(CNN)的方法由于其有限的感受野,难以捕获全局上下文,这使得生成高质量的融合图像变得具有挑战性。基于自编码器(AE)的特征提取或图像重建在设计能够捕获模态特定和共享特征的编码器时面临挑战。基于生成模型的方法,如生成对抗网络(GANs)和扩散模型,虽然能够生成高质量的融合图像,但在完成融合任务时可能不够高效。GANs的训练不稳定、缺乏可解释性以及模式崩溃是影响其生成能力的关键问题。

2024-06-10 10:32:17 1060 3

原创 【论文阅读】TarDAL:Target-aware Dual Adversarial Learning and a Multi-scenario Multi-Modality Benchmark

通过计算像素的显著性值来计算权重 ω1 和 ω2,公式 (5) 中的 Lpixel 表示像素损失,其中包括了融合图像与源图像的像素间的绝对差值。最后,该策略不仅可以生成视觉上吸引人的图像,而且可以在给定训练的网络参数的情况下输出准确的检测,使我们能够找到面向检测的融合的最佳解决方案,并且比独立训练方案更有效地收敛。ω1 和 ω2 是用于计算每个源图像对融合图像贡献的权重,通过调整这两个权重,可以更好地平衡生成的融合图像与源图像之间的像素强度分布。3.数据收集有限,难以学习到两种模态的互补信息并验证有效性。

2024-06-10 10:30:27 883 1

原创 【论文阅读】SegMiF:Multi-interactive Feature Learning and a Full-time Multi-modality Benchmark for Image

为了生成具有视觉吸引力的融合图像以及准确的场景分割结果,我们将这两个任务联合制定为一个目标:g(·)是联合优化两个任务的约束项。在本文中,我们将g(·)视为特征学习约束方式,并通过设计分层注意力机制和交互式训练方案来实现这一目标。

2024-06-10 10:25:06 1395

原创 【论文阅读】PSFusion:Rethinking the necessity of image fusion in high-level vision tasks

场景恢复分支旨在重建红外图像̂Iir和可见光图像̂Ivi,以及合成融合图像If;稀疏语义感知分支负责预测边界分割结果Ibd、语义分割结果Ise和二值分割结果Ibi。为了在语义感知分支和场景恢复分支之间轻松注入语义特征,我们期望共享这两个分支之间的特征提取网络。然而,场景恢复分支需要保持高分辨率特征以保留细节,而高级视觉任务需要降采样来提取足够的语义特征并捕捉整体结构。这两个要求之间的矛盾阻碍了我们使用现有的骨干作为特征提取网络。

2024-06-10 10:20:52 998

原创 【论文阅读】SeAFusion:Image fusion in the loop of high-level vision tasks: A semantic-aware real-time

源图像经过融合网络生成融合图像,而融合网络图像在经过一个分割网络得到分割结果。分割结果与labels构造语义损失,融合图像与源图像之间构造内容损失,其中语义损失只用于约束分割网络,而内容损失与语义损失共同约束融合网络的优化。这样语义损失能够将高级视觉任务(分割)所需的语义信息反传回融合网络从而促使融合网络能够有效地保留源图像中的语义信息。

2024-06-10 10:18:07 1163 1

原创 【论文阅读】Unsupervised Misaligned Infrared and Visible Image Fusion via Cross-Modality Image Generation

不同的成像流程和传感器内的热传导导致观察到的红外和可见图像之间出现偏移和变形的不对齐。通过观察发现,直接融合不对齐的红外和可见图像往往会出现严重的幽灵伪影。受 [Wang et al., 2019a;Wang et al., 2019b] 的启发,通过图像到图像翻译来减少跨模态变化,并考虑到红外图像“强调结构胜过纹理”的固有特性,我们提出了一个专门的跨模态生成-配准范式,以减少空间偏移并在不对齐的红外和可见图像融合过程中缓解幽灵问题。

2024-03-01 13:26:02 1318

原创 【论文阅读】SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness

在本文中,提出了一个考虑图像配准、图像融合和高级视觉任务要求的多功能框架,称为 SuperFusion。它显着扩展了实际应用中图像融合的范围。SuperFusion 由三个组件组成,包括图像配准、融合和语义分割网络。首先,设计配准网络来估计双向变形场,以便可以更简单地使用光度损失和端点损失来提高精度。此外,还开发了一种对称联合配准和融合方案,以平衡输入模态的偏差,并进一步促进融合域中具有相似性约束的配准。

2024-02-29 15:36:57 1501 4

原创 【论文阅读】FusionGAN: A generative adversarial network for infrared and visible image fusion

论文链接:FusionGAN: A generative adversarial network for infrared and visible image fusion - ScienceDirect代码: GitHub - jiayi-ma/FusionGAN: FusionGAN: A generative adversarial network for infrared and visible image fusion研究背景:1. 图像融合是一种增强技术,旨在将不同类型传感器获取的图像结合起来,

2024-02-23 22:55:11 1162

原创 【论文阅读】U2Fusion: A Unified Unsupervised Image Fusion Network

这些重要的参数被赋予更高的权重,以防止忘记从旧任务中学到的东西,而不太重要的参数可以更大程度地修改,以从新任务中学习。然而,随着任务数量的增加,两个紧迫的问题变得难以解决:i)始终保留先前任务的数据所带来的存储问题和ii)使用所有数据进行训练所带来的计算问题,无论是计算难度和时间成本。4.值得注意的是,有一些方法脱离了框架,例如基于梯度转移和总变差最小化的可见光-红外图像融合方法[19]、通过优化结构相似性指数的多曝光图像融合方法[20] ,以及基于密集SIFT进行多焦点图像融合的方法[21]等。

2024-02-23 22:50:49 1035

原创 【CVPR2023】CDDFuse:Correlation-Driven Dual-Branch FeatureDecomposition for Multi-Modality ImageFusion

这个损失项的动机是,根据我们的 MMIF 假设,分解后的特征 {ΦB I , ΦB V } 将包含更多模态共享信息,例如背景和大规模环境,因此它们通常是高度相关的。通过扁平化前馈网络的结构,扁平化了 Transformer 块的瓶颈,LT 块缩小了嵌入,以减少参数数量,同时保持相同的性能,满足我们的期望。显然,我们的方法更好地整合了红外图像中的热辐射信息和可见图像中的详细纹理。例如,在图1a中,(I)和(II)中的共享编码器无法区分模态特定的特征,而(III)中的私有编码器忽略模态共享的特征。

2024-02-03 22:37:54 1341 1

原创 【CVPR2023】Adaptive Spot-Guided Transformer for Consistent Local Feature Matching

然而,以往的方法在细阶段选择固定大小的网格进行匹配。然而,当图像之间的尺度变化太大时,正确的匹配点可能超出网格的范围,导致匹配失败。然而,一些最近的研究出,Transformer在连续密集预测任务中缺乏空间上的归纳偏差,可能导致局部匹配结果的不一致。该模块的主要目的是通过引导注意力机制来实现对地标点周围区域的聚合,以便提高匹配的准确性和鲁棒性,从而更好地实现图像间的匹配。本研究的创新之处在于引入了点引导聚合模块,以维持局部一致性并避免干扰因素的影响,以及自适应缩放模块,有效处理局部特征匹配中的尺度变化。

2024-02-03 22:28:05 1994 1

原创 【ACCV2022】MatchFormer: Interleaving Attention in Transformers for Feature Matching

主要工作:本文的主要工作是提出了一种新的层级提取和匹配变换器,称为MatchFormer,用于局部特征匹配任务。背景:局部特征匹配是一个在亚像素级别上计算密集的任务。传统的基于检测器和特征描述符的方法在低纹理场景中表现不佳,而基于CNN的方法虽然具有序列化的提取-匹配流程,但未能充分利用编码器的匹配能力,同时容易过度负担解码器进行匹配。研究方法:提出了一种新的层级提取和匹配变换器,MatchFormer。

2024-02-03 22:22:34 1125 1

原创 【CVPR2021】LoFTR: Detector-Free Local Feature Matching with Transformers

论文链接:LoFTR: Detector-Free Local Feature Matching with Transformers | IEEE Conference Publication | IEEE Xplore代码:zju3dv/LoFTR: Code for "LoFTR: Detector-Free Local Feature Matching with Transformers", CVPR 2021, T-PAMI 2022 (github.com)We present a novel m

2024-02-03 22:16:49 1225 1

原创 【ICCV2023】LightGlue:Local Feature Matching at Light Speed

介绍了一种用于特征匹配的深度神经网络LightGlue。在SuperGlue成功的基础上,将注意力机制的力量与关于匹配问题的见解以及Transformer最近的创新相结合,赋予这个模型反思其自身预测可信度的能力,使计算量适应每个图像对的难度。LightGlue比之前表现最好的SuperGlue更快、更准确、更容易训练!

2024-02-03 22:14:35 1164 1

原创 【CVPR2020】SuperGlue:Learning Feature Matching with Graph Neural Networks

这篇文章介绍了一种通过同时寻找描述子和拒绝不匹配的特征点来匹配两种局部特征的神经网络。通过求解可微的最优传输问题来估算分配,该问题的代价通过图神经网络来预测。我们介绍了一种灵活的基于注意力机制的上下文聚合机制,使得superglue可以同时推理出底层的3D场景和特征分配。与传统的手工设计的方法相比,我们的技术通过端到端的训练从图片对中学习几何变换和3D世界的规则的先验知识。superglue比其他学习方法表现得更好并且在具有挑战的现实世界的室内和室外环境的姿态估计任务中取得了最好的结果。

2024-02-03 22:05:59 1049 1

原创 【ICCV2021】COTR: Correspondence Transformer for Matching Across Images

主要工作:该论文提出了一种基于深度神经网络的图像对应框架,可以在给定两幅图像和一幅图像中的查询点的情况下,在另一幅图像中找到其对应点。该方法可以选择只查询感兴趣的点并检索稀疏对应关系,或者查询图像中的所有点并获得密集映射。在推理阶段,通过逐步缩小区域的方式,应用对应网络,形成一种多尺度管线,能够提供高度精确的对应关系。背景:在计算机视觉领域,寻找图像间的对应关系是一个重要且具有挑战性的问题,涉及到多种应用,包括立体视觉和光流估计。

2024-02-03 21:53:09 1013 1

原创 【论文精读】D2-Net:A Trainable CNN for Joint Description and Detection of Local Features

但是,情况并非那么简单,因为描述符内的不是所有变量都是"鉴别性"的:两个关键点可能具有小的距离测量,因为它们的描述符内的大多数变量具有相似的值,但是那些变量可能对实际的匹配无关。放弃特征点检测而直接在整张图片上进行稠密的描述子提取“[10, 15, 48, 52].” 这种方法比稀疏特征点匹配“[45, 58, 69],” 显现出更好的匹配结果。传统稀疏特征提取的方法基本上都是先进行特征提取“[7, 19, 29, 31, 33]” ,然后提取描述子“[7, 9, 24, 29, 44]”。

2023-11-21 19:43:45 220

原创 【论文精读】SuperPoint:Self-Supervised Interest Point Detection and Description

研究背景:1.提取特征点是许多视觉任务的第一步,例如SLAM、SfM、相机校准以及图像匹配等。2.卷积神经网络在图像作为输入的任务上表现优越。3.训练基于强监督的卷积神经网络来检测特征点很难。研究方法:1.提出了一种自监督方法,通过特征点检测器它自己来监督,创造一个真实图片的特征点的伪基准标准(ground truth)的数据集。

2023-11-17 16:45:30 137

原创 解决 OpenAI‘s API is not available in your country.

首先你要确认自己连的节点不属于以下任何一个国家。如果你确定你连的节点不属于上图的任何一个国家还是显示not available,那么有两种情况。一.你的科学上网工具的设置。例如我用的是ssr,我打开了服务器负载均衡,它就会自动的在我所有的节点里选择最好的节点进行连接,我以为自己连的是美国的节点,其实它可能已经给我换到了香港、俄罗斯的节点。关闭负载均衡后,连接任意一个非上图国家的节点就OK了。二..你之前用浏览器进入该网站或者其他网站的时候IP地址属于以上几个国家。这时我们可以进入浏览器的设

2022-12-16 13:53:48 49261 3

原创 解决 OpenAI‘s API is not available in your country.

首先,你要保证自己的节点连的不是以下几个地区的。其次,要注意自己的科学上网工具有些设置可能会导致它自动切换节点。例如我用的是ssr,因为开了服务器负载均衡,它会自动寻找更好的节点连接。我以为我连的是美国的节点,其实它已经自动给我切换成上图那几个国家的节点了,导致我注册的时候总是显示not available。最后,如果节点连接的不是以上几个国家并且关闭了服务器负载均衡之类的设置还是不行,可以在浏览器设置里清理一下浏览器的缓存、cookie之类的,开启无痕模式登入。花了几个小时,踩了无数的坑

2022-12-16 13:38:54 6351 2

原创 python oj

计算标准差题目描述Pile 想知道好多个数字的标准差。输入输入多行,每行表示一个整数输出输出标准差,输出格式可以参考样例。输出的标准差要求利用科学计数法表示,且只能输出 2 位数,例如 1.2e+09。ls=[]while 1: try: x=eval(input()) ls.append(x) except: breaks=0;s1=0for i in range(len(ls)): s+

2021-12-11 14:29:38 1114

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除