超分辨率重建之DRCN

本文与之前的SRCNN不同,采用的是递归卷积网络。对于图像复原问题的操作问题,深度学习处理的时候时不使用pooling层。如果增加网络的深度,将增加更多的参数,则会导致两个问题:一是容易过拟合,二是模型过大,难以存储和重现。因此使用递归神经网络,然而由于梯度消失/爆炸导致不易收敛。因此提出了两种解决方法:一是每层的递归层都是监督式的;二是类似于残差网络,采用skip connection 结构。具体的结构图如下图所示:

主要分为三个部分,第一部分是Embedding network,相当于SRCNN中的特征提取,二是Inference network,相当于特征的非线性变换,第三个是Reconstruction network,即特征图重建。其中的Inference network是一个递归网络,即数据循环地通过该层多次。将这个循环进行展开,就等效于使用同一组参数的多个串联的卷积层,如下图所示:

其中的H_1到H_D是D个共享参数的卷积层。DRCN将每一层的卷积结果都通过同一个Reconstruction Net得到一个重建结果,从而共得到D个重建结果,再把它们加权平均得到最终的输出。另外,受到ResNet的启发,DRCN通过skip connection将输入图像与H_d的输出相加后再作为Reconstruction Net的输入,相当于使Inference Net去学习高分辨率图像与低分辨率图像的差,即恢复图像的高频部分。最终的目标函数是一个多目标优化问题。除了每一个递归层的监督产生的误差还有最终效果的误差。

实验结果如下图所示:

参考:

http://cv.snu.ac.kr/research/DRCN/

https://zhuanlan.zhihu.com/p/25532538

  • 2
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值