基于深度学习的红外和可见光图像融合论文及代码整理

35 篇文章 147 订阅
20 篇文章 13 订阅

基于深度学习的红外和可见光图像融合论文及代码整理

首先附上近期整理基于深度学习的图像融合论文的思维导图
在这里插入图片描述
本篇博客主要整理基于深度学习的红外和可见光图像融合的论文和代码
图像融合系列博客还有:

  1. 图像融合论文及代码整理最全大合集参见:图像融合论文及代码整理最全大合集
  2. 图像融合综述论文整理参见:图像融合综述论文整理
  3. 图像融合评估指标参见:红外和可见光图像融合评估指标
  4. 图像融合常用数据集整理参见:图像融合常用数据集整理
  5. 通用图像融合框架论文及代码整理参见:通用图像融合框架论文及代码整理
  6. 基于深度学习的红外和可见光图像融合论文及代码整理参见:基于深度学习的红外和可见光图像融合论文及代码整理
  7. 更加详细的红外和可见光图像融合代码参见:红外和可见光图像融合论文及代码整理
  8. 基于深度学习的多曝光图像融合论文及代码整理参见:基于深度学习的多曝光图像融合论文及代码整理
  9. 基于深度学习的多聚焦图像融合论文及代码整理参见:基于深度学习的多聚焦图像融合(Multi-focus Image Fusion)论文及代码整理
  10. 基于深度学习的全色图像锐化论文及代码整理参见:基于深度学习的全色图像锐化(Pansharpening)论文及代码整理
  11. 基于深度学习的医学图像融合论文及代码整理参见:基于深度学习的医学图像融合(Medical image fusion)论文及代码整理
  12. 彩色图像融合参见: 彩色图像融合
  13. SeAFusion:首个结合高级视觉任务的图像融合框架参见:SeAFusion:首个结合高级视觉任务的图像融合框架
  14. DIVFusion:首个耦合互促低光增强&图像融合的框架参见:DIVFusion:首个耦合互促低光增强&图像融合的框架

基于自编码器的图像融合框架

1. DenseFuse: A Fusion Approach to Infrared and Visible Images [DenseFuse(TIP 2019)] [Paper] [Code]

2. NestFuse: An Infrared and Visible Image Fusion Architecture Based on Nest Connection and Spatial/Channel Attention Models [NestFuse(TIM 2020)] [Paper] [Code]

3. RFN-Nest: An end-to-end residual fusion network for infrared and visible images [RFN-Nest (IF 2021)] [Paper] [Code]

4. Classification Saliency-Based Rule for Visible and Infrared Image Fusion [CSF (TCI 2021)] [Paper] [Code]

5. DRF: Disentangled Representation for Visible and Infrared Image Fusion [DRF(TIM 2021)] [Paper] [Code]

6. SEDRFuse: A Symmetric Encoder–Decoder With Residual Block Network for Infrared and Visible Image Fusion [SEDRFuse (TIM 2021)] [Paper] [Code]

7. Learning a Deep Multi-Scale Feature Ensemble and an Edge-Attention Guidance for Image Fusion [EAGIF (TCSVT 2021)] [Paper]

基于卷积神经网络的图像融合框架

1. A Bilevel Integrated Model With Data-Driven Layer Ensemble for Multi-Modality Image Fusion [D2LE (TIP 2019)] [Paper]

2. Different Input Resolutions and Arbitrary Output Resolution: A Meta Learning-Based Deep Framework for Infrared and Visible Image Fusion [Meta Learning(TIP 2021)] [Paper]

3. Searching a Hierarchically Aggregated Fusion Architecture for Fast Multi-Modality Image Fusion [HAF(ACM MM 2021)] [Paper] [Code]

4. RXDNFuse: A aggregated residual dense network for infrared and visible image fusion [RXDNFuse(IF 2021)] [Paper]

5. STDFusionNet: An Infrared and Visible Image Fusion Network Based on Salient Target Detection [STDFusionNet(TIM 2021)] [Paper] [Code]

6. Image fusion in the loop of high-level vision tasks: A semantic-aware real-time infrared and visible image fusion network [SeAFusion(IF 2022)] [Paper] [Code]

7. PIAFusion: A progressive infrared and visible image fusion network based on illumination aware [PIAFusion(IF 2022)] [Paper] [Code]

8. Unsupervised Misaligned Infrared and Visible Image Fusion via Cross-Modality Image Generation and Registration [UMF-CMGR(IJCAI 2022)] [Paper] [Code]

9. DetFusion: A Detection-driven Infrared and Visible Image Fusion Network [DetFusion(ACM MM 2022)] [Paper] [Code]

10. DIVFusion: Darkness-free infrared and visible image fusion [DIVFusion(IF 2023)] [Paper] [Code]

基于生成对抗网络的图像融合框架

1. FusionGAN: A generative adversarial network for infrared and visible image fusion [FusionGAN(IF 2019)] [Paper] [Code]

2. Infrared and visible image fusion via detail preserving adversarial learning [Detail-GAN(IF 2021)] [Paper] [Code]

3. Learning a Generative Model for Fusing Infrared and Visible Images via Conditional Generative Adversarial Network with Dual Discriminators. [DDcGAN (IJCAI 2019)] [Paper] [Code]

4. Image fusion based on generative adversarial network consistent with perception [DDcGAN(TIP 2020)] [Paper] [Code]

5. GANMcC: A Generative Adversarial Network With Multiclassification Constraints for Infrared and Visible Image Fusion [GANMcC(TIM 2020)] [Paper] [Code]

6. Image fusion based on generative adversarial network consistent with perception [Perception-GAN(IF 2021))] [Paper] [Code]

7. Semantic-supervised Infrared and Visible Image Fusion via a Dual-discriminator Generative Adversarial Network [SDDGAN(TMM 2021)] [Paper] [Code]

8. AttentionFGAN: Infrared and Visible Image Fusion Using Attention-Based Generative Adversarial Networks [AttentionFGAN(TMM 2021)] [Paper]

9. GAN-FM: Infrared and Visible Image Fusion Using GAN With Full-Scale Skip Connection and Dual Markovian Discriminators [GAN-FM(TCI 2021)] [Paper] [Code]

10. Multigrained Attention Network for Infrared and Visible Image Fusion [GAN-FM(TCI 2021)] [Paper]

11. Infrared and Visible Image Fusion via Texture Conditional Generative Adversarial Network [TC-GAN(TCSVT 2021)] [Paper] [Code]

12. Unsupervised Misaligned Infrared and Visible Image Fusion via Cross-Modality Image Generation and Registration [UMF-CMGR(IJCAI 2022)] [Paper] [Code]

如有疑问可联系:2458707789@qq.com; 备注 姓名+学校

  • 39
    点赞
  • 262
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 32
    评论
基于深度学习红外可见光图像融合是当前计算机视觉领域的热门研究方向之一。红外图像和见光图像具有不同的物理特性和信息内容,通过将它们融合在一起,可以提高图像的视觉感知和信息提取能力。本文将对基于深度学习红外可见光图像融合进行综述。 首先,深度学习红外可见光图像融合中的应用已经取得了显著的进展。传统的图像融合方法通常基于手工设计的特征提取和融合规则,而深度学习可以通过自动学习特征表示和融合模式来实现更准确和鲁棒的融合效果。卷积神经网络(CNN)和生成对抗网络(GAN)等深度学习模型被广泛应用于红外可见光图像融合中,取得了较好的融合效果。 其次,深度学习模型在红外可见光图像融合中的应用包括特征提取、特征融合和融合结果生成等方面。通过使用深度卷积神经网络,可以提取红外图像和可见光图像的高层次语义特征,并将它们融合在一起。生成对抗网络则可以生成逼真的融合结果,使融合后的图像既保留了红外图像的热信息,又具备了可见光图像的丰富细节。 此外,深度学习模型还可以通过多尺度和多模态的方式来进行红外可见光图像融合。多尺度融合可以有效地处理不同分辨率和空间尺度的图像信息,提高融合结果的质量。多模态融合则可以将红外图像和可见光图像的不同特征进行有机组合,增强图像的视觉效果和信息内容。 最后,尽管基于深度学习红外可见光图像融合已经取得了一定的成果,但仍然存在一些挑战和问题需要解决。例如,数据集的缺乏和标注困难使得深度学习模型的训练和评估变得困难。此外,不同的红外可见光图像融合任务和应用场景可能需要针对性的模型设计和算法优化。 综上所述,基于深度学习红外可见光图像融合是一个具有挑战性和潜力的研究方向。通过深度学习模型的应用,可以实现更准确、鲁棒和逼真的红外可见光图像融合效果,为红外图像处理和应用提供更多可能性。然而,仍需要进一步的研究和探索来解决现有问题,并推动该领域的发展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 32
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Timer-419

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值