Embedded Block Residual Network: A Recursive Restoration Model for Single-Image Super-Resolution

  • 写在前面的话
    好久没有看论文了。今天看到的这篇论文,感觉motivation相当不错,从论文中的表格来看,论文的PSNR和SSIM值又被刷上了新的高度,而且使用的参数竟然只有接近6M,相比较于之前的RCANSAN,这篇论文只使用了接近1/3的参数。但是有一个疑问就是:论文确实展示了实验结果表格, 但是在图片的展示环节中却并没有和这些方法进行比较,后面将会对这篇论文的实验代码进行复现,请时刻关注我的博客:it-hao

  • Motivation:
    作者认为虽然深度卷积神经网络虽然已经在超分辨率的性能上面带来了很好的效果,但是这些网络并没有有效地利用到这些特征,或者说是对这些特征进行了滥用,作者认为:【the parameters may fit on the low-frequency information (which has simple textures), but underfit on the high-frequency information (which has complex textures).】 也就是深度网络反而对那些很简单的特征过度拟合了,而轻量级网络对深层特征又学习的不到位,所以这些方法只能够提升有限的性能,却也仅仅是有限的。。。

  • Proposed Methods

    • Block Residual Module (BA)
      图1
    • Network Architecture
      图2我的总结就是(打个比方):“一个比较调皮的学生,天资聪颖,但是他就是不喜欢长期学习,就是每天学习一点点,然后记住一点点,肯定还有没被记住的吧,那就第二天再去学习没有记住的那一点点,反复反复,最终就把所有的知识记住了,肯定也会学习到新的东西,这些新的东西可能对于解决之前的问题也会有新的解决方案,那我们就采用“递归”的思想反着回去学习一遍”,可能不太准确,不过这也就是我个人的一个看法。
      这篇文章还有一个神奇的地方,在于这篇文章全文只有这么一个公式,
      O x ′ = f ( O x ′ + O x + 1 ′ ) O_x^{'} =f(O_x^{'} + O_{x+1}^{'} ) Ox=f(Ox+Ox+1)
  • Experiment
    在这里插入图片描述从实验结果来看,确实要比之前的state-of-the-art 方法好很多,而且参数少很多
    在这里插入图片描述

  • 其实这篇论文还有很多值得去研究的地方,这里大家自己好好思考吧。

评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值