点击笑书神侠读博学关注我们
引言
本文介绍一下我们致力于打破图像融合领域“王婆卖瓜,自卖自夸”现象的第一次尝试:第一个可见光与红外图像融合Benchmark。
![bfb1a07b2f6d4b74aef42f1dde057190.gif](https://i-blog.csdnimg.cn/blog_migrate/be712d0ef72907eff2c45b2f06687d4b.gif)
一段时间以前,我在知乎专栏“图像融合理论、应用及趋势”里发表了一篇介绍我们做的可见光红外图像融合Benchmark的文章“VIFB: 一个可见光与红外图像融合Benchmark”。
文章发表以后,引起了很多人的兴趣。有很多人给我留言、写私信或者发邮件表达对这个工作的肯定和兴趣,有点超过我的预期。
这里我整理并介绍一下相关情况。
![95253eb1bae7e46176aef76ce4d8ede1.png](https://i-blog.csdnimg.cn/blog_migrate/0175a1a8b7a6dd090875f72f9942ff81.png)
01
研究意义与初衷
最近(2020年5月27日),国际顶级期刊Science上发表了一篇题为“Eye-catching advances in some AI fields are not real”的文章。文章指出目前一些AI领域的发展是虚假繁荣,并引用了一篇MIT的研究人员针对模型剪枝算法所做的实验,表明很多宣称为SOTA (state-of-the-art) 的算法,其实性能并不怎样。
此外,该文章认为目前很多算法之间根本不存在可比性(因为模型不同,数据集不同等等原因),并提供了一个比较模型剪枝算法的平台。
![bed7589974a93be3b8e9975937e96b47.png](https://i-blog.csdnimg.cn/blog_migrate/535a96e0d49b6bd4cb32d0e62101b754.jpeg)
Sience上的文章
我们做VIFB研究的初衷也是认为目前的很多图像融合算法不具备直接的可比性(因为数据集和评价指标都不同)。我们的实验结果,也初步表明目前基于深度学习的图像融合算法的性能其实没有相关论文宣称的那样好,到目前为止其实还比不上某些传统图像融合方法。
需要指出的是,我们的论文先于MIT的那篇分析模型剪枝的论文在网上发布,但我们的很多观点和文章主要思想却非常一致。这让我有点意外,也让我更加确信这个工作对于领域是有价值的(和MIT大佬的思想很一致,感觉不错)。