2024年.....你还在改网络结构吗??看看顶刊大佬关注问题的创新点

修改网络结构(无非是提升模型性能)已经过时了,这种做法已经无法满足推动学术前进的需求,如何找到新的问题通电才是关键。

今天给大家解析这篇2022年发表在CVPR上的篇论文,重点讲解大佬的关注点在哪里,他是如何敏锐的提出新的问题,我们一起来学习

题目:“Learning the Degradation Distribution for Blind Image Super-Resolution”

下载地址:https://arxiv.org/pdf/2203.04962.pdf

从文章的总结1和标亮的部分可以看出,该研究已经不再关注如何通过修改网络结构来提升网络模型性能,而是将目光转移到不起眼的数据集上。
真正按照严格标准来做实验不难发现,这是个非常重要而且直接关平到是否能训练出鲁棒性较好模型的问题。这是因为,现实场景中我们很难获取到配对的数据集用于网络模型训练尤其涉及到交叉学科研究中的特殊场景。
难道这类问题难道没有学者曾经关注到吗? 事实上,从2012年深度学习爆火以来大佬们已经关注到这个问题。只是当时更加关注的是如何训练出一个鲁棒性较好的网络模型,从而验证数据驱动的网络计算模型是否真的可行?而数据集则采用仿真的方式(或人工加标签),这是非常的符合科学研究思路。于是就有了网络模型结构改进泛滥成灾的场景。
随着研究逐步深入,数据驱动的计算网络模型在各大任务上取得了令人兴奋的结果,如何获取接近真实场景的数据集得到学者广泛关注。

既然已经有了很多相关的论文,那这篇论文的作者关注点在哪里呢?我们接着解析作者的总结2和标亮的部分。
这篇论文作者提出了一个非常有价值的问题,即之前采用网络模拟退化图像 (也就是生成接近真实场景数据集)方法存在生成图像过于绝对,而真实场景数据是非常随机的,导致模型推理过程泛化能力差。
作者构建了一个(PDM,probabilisticdegradation model)概率分布模型模型来随机的生成配对数据集,从而满足真实场景模型训练需求,如下图所示。

从上图可以看出,这是作者自己构建出的PDM模型,来解决自己提出的问题。关于模型的构建并不是空穴来风,而是有理论依据的,这个依据就是大名鼎鼎的盲反卷积模型(传统算法),已经被证实几十年了,公式如下图所示

解析到这里,很多同学已经可以看出,这就是经典的将传统算法+深度学习模型相结合来进行方法创新的范例。
最后,我们看一下作者的总结4和标亮的部分这篇论文最终的目的是如何利用PDM模型来生成接近真实场景配对数据集,从而用于网络模型训练,最后重建出质量更高的清晰图像。所以,我们写论文时候脑子一定得清楚,知道自己想要达到的目的是什么。

总结+讨论
如果作者没有利用一个超分模型进行图像重建,那这篇论文的主题就完全变了,它不再是图像超分,而是在讨论如何更好的生成配对数据集。那么,它的实验部分应该用PDM模型和先前生成数据集模型进行对比,从而突出PDM模型有效性。同理,题目也要改变,不再是图像超分辨重建,而是如何有效生成配对数据。所以,我们在写一篇论文之前,一定要想清楚论文的主题是什么,想要达到的目的是什么,倘若这些问题没有想清楚,那么写出来的论文一定逻辑很混乱,自己很懵,读者更是不知道你想表达什么。最后,只有一个结果,这是篇不符合学术规范的论文,还需要不断努力。

  • 5
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值