本篇与DATF同一个作者,提出的框架基本一样,只不过这里把注意力机制和TR块合在一起命了个名,同时,本篇使用的是双分支,两个encoder分开提取,损失方面,把两个评价指标SSIM,SF作为损失。没有使用一般的强度损失和梯度损失。选取的评价指标也是比较少用的,对比方法也不新。
发表在TMM
代码公开
TR块使用的是Swin Transformer~~(虽然作者没有提)~~
主观图:
融合结果不管是背景还是细节都偏红外。
感觉这几张图片,很难定义红外中的显著信息是什么,左边的房子屋顶在IR中很白,在VIS中很暗,但在右侧图片中,IR和VIS中的屋顶
都很暗。
这方面只能从提升指标出发,而指标的计算又涉及到了像素值的参与,所以图像融合中,互信息指的是什么?