可见光和红外 融合 数据集_拒绝“王婆卖瓜,自卖自夸” | VIFB:第一个可见光与红外图像融合Benchmark...

点击笑书神侠读博学关注我们

引言

本文介绍一下我们致力于打破图像融合领域“王婆卖瓜,自卖自夸”现象的第一次尝试:第一个可见光与红外图像融合Benchmark。

bfb1a07b2f6d4b74aef42f1dde057190.gif

一段时间以前,我在知乎专栏“图像融合理论、应用及趋势”里发表了一篇介绍我们做的可见光红外图像融合Benchmark的文章“VIFB: 一个可见光与红外图像融合Benchmark”。

文章发表以后,引起了很多人的兴趣。有很多人给我留言、写私信或者发邮件表达对这个工作的肯定和兴趣,有点超过我的预期。

这里我整理并介绍一下相关情况。

95253eb1bae7e46176aef76ce4d8ede1.png

01

研究意义与初衷

最近(2020年5月27日),国际顶级期刊Science上发表了一篇题为“Eye-catching advances in some AI fields are not real”的文章。文章指出目前一些AI领域的发展是虚假繁荣,并引用了一篇MIT的研究人员针对模型剪枝算法所做的实验,表明很多宣称为SOTA (state-of-the-art) 的算法,其实性能并不怎样。

此外,该文章认为目前很多算法之间根本不存在可比性(因为模型不同,数据集不同等等原因),并提供了一个比较模型剪枝算法的平台。

bed7589974a93be3b8e9975937e96b47.png

Sience上的文章

我们做VIFB研究的初衷也是认为目前的很多图像融合算法不具备直接的可比性(因为数据集和评价指标都不同)。我们的实验结果,也初步表明目前基于深度学习的图像融合算法的性能其实没有相关论文宣称的那样好,到目前为止其实还比不上某些传统图像融合方法

需要指出的是,我们的论文先于MIT的那篇分析模型剪枝的论文在网上发布,但我们的很多观点和文章主要思想却非常一致。这让我有点意外,也让我更加确信这个工作对于领域是有价值的(和MIT大佬的思想很一致,感觉不错)

  • 3
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值