图像融合论文阅读:(PMGI)一种基于梯度与强度比例保持的快速统一图像融合网络

@inproceedings{zhang2020rethinking,
title={Rethinking the image fusion: A fast unified image fusion network based on proportional maintenance of gradient and intensity},
author={Zhang, Hao and Xu, Han and Xiao, Yang and Guo, Xiaojie and Ma, Jiayi},
booktitle={Proceedings of the AAAI conference on artificial intelligence},
volume={34},
number={07},
pages={12797–12804},
year={2020}
}

论文级别:CCF-A
影响因子:-

📖[论文下载地址]

💽[代码下载地址]

📖论文解读

本论文发表于2020年,是SDNet的前身,想看后续的同学可以移步:
[SDNet: A Versatile Squeeze-and-Decomposition Network for Real-Time Image Fusion]

🔑关键词

图像融合

💭核心思想

(和SDNet思想非常非常相似,毕竟两篇论文是前世今生)
作者提出了一种基于【梯度和强度的比例维持】(proportional maintenance of gradient and intensity,PMGI)的【端到端】的【多任务图像融合】网络。
图像融合问题可以统一视为源图像【梯度】【强度】的比例维护问题。
网络分为两条路:梯度路径负责提取高频纹理信息,强度路径负责源图像像素强度信息的提取。
加入了特征重用(即DenseNet的密集连接)和信息交换操作。
损失函数由梯度损失项和强度损失项构成。

参考链接
[什么是图像融合?(一看就通,通俗易懂)]

🪢网络结构

PMGI网络结构如下图所示。看起来很复杂,其实梳理一下很简单。
在这里插入图片描述
从图中我们可以看出,上面是梯度路径,下面是强度路径。输入图像并不是简单的拼接,而是让拼接比 β = 1 : 2 \beta=1:2 β=12
(我的理解是,以往的图像融合有两个源图像作为输入,分别是A和B,即为A+B,
而本文创新为AAB+BBA,使“你中有我,我中有你,但是我还是我【因为AAB里A占大头,即A“还是”A】,你还是你”)
最终的特征图也是由不同卷积时期的特征图拼接形成的,因为填充设置为SAME,所以特征图尺寸均一样,方便拼接。

📉损失函数

在这里插入图片描述
A和B分别代表两幅源图像, L ( ⋅ ) i n t \mathcal L_{(·)_{int}} L()int代表A或者B的强度损失, L ( ⋅ ) g r a d \mathcal L_{(·)_{grad}} L()grad代表相应的梯度约束。 λ ( ⋅ ) \lambda_{(·)} λ()代表各项权重系数。
看起来很复杂是不是,换种写法,上式可以表示为:
总损失函数=A的强度损失+A的梯度损失+B的强度损失+B的梯度损失。每项前面有个系数。
在这里插入图片描述
在这里插入图片描述
这两组公式也很好理解,就是融合结果和源图像的二范数平方,或者是梯度的二范数平方。HW是图像高和宽。
详细解释可以看本专栏其他论文解读,写的很清楚。
在公式1中,四个参数如何确定呢?
作者给出的解释就是,【不同的任务权重不同】。

  • 可见光-红外
    融合结果在强度方面应该主要看红外图像的,在梯度方向主要看可见光图像的。
    因为强度反应的是热辐射目标,梯度反应的是纹理细节。
    在这里插入图片描述

  • 多曝光
    同样重要,互为补充,所以相等
    在这里插入图片描述

  • 多聚焦
    同理
    在这里插入图片描述

  • 医学图像PET-MRI
    强度主要从PET中获得,纹理主要从MRI中获得。那下式第一项为什么是等于号不是大于号呢?
    因为PET图像从RGB转换到IHS中,I分量比MRI大的多,如果再大于,则强度会掩盖纹理。为了平衡强度和纹理所以如此。
    在这里插入图片描述

  • pan-sharpening(全色图像锐化
    在这里插入图片描述
    全色图像具有较高的空间分辨率(丰富的纹理细节),多光谱图像包含丰富的颜色信息。
    为了避免光谱失真,只对全色图像的纹理信息进行约束,而不约束强度。

🔢数据集

  • TNO dataset for task1;
  • MEF dataset and the dataset provided by (Cai, Gu, and Zhang 2018) for task2;
  • MRI and PET images from Harvard medical school website for task3;
  • the dataset provided by (Nejati, Samavi, and Shirani 2015) and sametaymaz4 for task4
  • the panchromatic and multi-spectral images generated by the Quickbird satellite for task5.

图像融合数据集链接
[图像融合常用数据集整理]

🎢训练设置

  • VIF:源图像都是灰度图像
  • 多聚焦:同上
  • 医学:PET是RGB,转换为IHS,使用I通道和MRI融合
  • 多曝光:将RGB转换到YCbCr,融合Y通道,CbCr使用传统方法融合。
  • 全锐化:多光谱4通道,全色图像单通道。分辨率为1:4。使用双三次插值将多光谱上采样至全色尺寸,然后将多光谱的每个通道都分别与全色图像融合,最后将4个中间结果拼接在一起形成最终结果。

🔬实验

📏评价指标

参考资料
[图像融合定量指标分析]

🥅Baseline

  • LPP (Toet 1989),
  • GTF (Ma et al.2016)
  • DDLatLRR (Li and Wu 2018a)
  • LatLRR (Li and Wu2018b)
  • FusionGAN

参考资料
[图像融合论文baseline及其网络模型]

🔬实验结果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

更多实验结果及分析可以查看原文:
📖[论文下载地址]
💽[代码下载地址]


🚀传送门

📑图像融合相关论文阅读笔记

📑[SDNet: A Versatile Squeeze-and-Decomposition Network for Real-Time Image Fusion]
📑[DDcGAN: A Dual-Discriminator Conditional Generative Adversarial Network for Multi-Resolution Image Fusion]
📑[FusionGAN: A generative adversarial network for infrared and visible image fusion]
📑[PIAFusion: A progressive infrared and visible image fusion network based on illumination aw]
📑[Visible and Infrared Image Fusion Using Deep Learning]
📑[CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for Multi-Modality Image Fusion]
📑[U2Fusion: A Unified Unsupervised Image Fusion Network]

📚图像融合论文baseline总结

📚[图像融合论文baseline及其网络模型]

📑其他论文

[3D目标检测综述:Multi-Modal 3D Object Detection in Autonomous Driving:A Survey]

🎈其他总结

🎈[CVPR2023、ICCV2023论文题目汇总及词频统计]

✨精品文章总结

[图像融合论文及代码整理最全大合集]
[图像融合常用数据集整理]

如有疑问可联系:420269520@qq.com;
码字不易,【关注,收藏,点赞】一键三连是我持续更新的动力,祝各位早发paper,顺利毕业~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

图像强

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值