Scale-recurrent Network for Deep Image Deblurring

摘要:

在单张图片去模糊中,从粗糙到细致的模式例如在一个不同尺度的金字塔结构中,逐渐复原清晰图像在传统的基于优化的算法和最近的基于神经网络的方法中都非常成功。在本文中,我们研究了这种策略并且针对这种去模糊任务提出了一个尺度递归网络(SRN-DeblurNet)。相比较于文献[25]中的许多最近的基于学习的方法,它有一个更简单的网络结构,更少的参数,而且更加容易训练。我们在有复杂运动的大尺度去模糊数据集上评价了我们的算法。结果显示我们的方法在质量和数量上都能比目前的最优方法产生更好的质量结果。

1.介绍:
对于去模糊问题,coarse to fine的模式是一个很好的方法,主要就是多尺度。针对多尺度,本文提出的尺度循环网络(SRN)在两个方面进行了创新。
Scale-recurrent Structure
在多尺度模型里,每一尺度的网络结构和任务都相似,但是各尺度的参数仍然是相互独立的。本文提出的在不同尺度之间共享网络权重可以减少网络参数、使模型的学习能力更加稳固。
编解码残差网络结构
编解码器的结构在CV任务中非常有用,与残差网络相结合可以结合两者优势,还能扩大感受野,对于捕捉运动模糊很重要。本文设计的网络训练收敛快、参数少、去模糊效果好,超过了当前的最好水平。
2.相关工作:
利用图像的各种先验知识;带跳跃连接的自编码器。
U-net(编解码器网络)。多尺度网络。

3.网络结构:
  3.1 SRN

在每一个尺度上,以两张图像作为输入,一张模糊图像,一张上采样后的去模糊图像。同时还在中间输入了隐藏状态的特征。
循环网络用ConvLSTM.它能在利用时间相关性的同时利用空间相关性。
不同尺度之间对图像和feature的上采样都使用双线性插值(bilinear interpolation),因为简单有效。

3.2用残差网络构造的编解码器
编解码器用对称的结构先把输入数据编成小尺寸、多通道的特征图,然后把特征图解码成与与输入相同shape的输出。跳跃连接(skip-connection)在编解码器中广泛用来连接不同level的特征,有利于梯度传播与加速收敛。一般,编码器包括几级步长不为1的卷积,解码器包括几级解卷积或resize。
然而直接使用简单的编解码器有以下缺点:层数少导致感受野小,若层数过多又会导致特征图尺寸过小而不能充分保留空间信息,且层数过多还会增加参数,使网络难以收敛。
本文将残差模块用于编解码器,所有残差块没有BN层。在每一个编码残差块(EBlocks)中,先通过步长为2的卷积,将尺寸缩小一半,同时将特征维度增加一倍。然后通过若干个残差网络,每个残差网络包含两层卷积。在每一个解码模块(DBlocks)中,结构与编码模块(EBlocks)对称,即若干个残差网络和一个解卷积层(deconvolution),将尺寸增加一倍,特征维度减少一半。
隐藏层隐藏状态包含了有用的信息

     

对每一个尺度,可以依次分成几部分:InBlocks 2*EBlocks ConvLSTMBlocks 2*Dblocks OutBlocks;InBlocks产生32通道特征,两个EBlocks分别产生64,128通道,DBlocks和OutBlocks与前面对称。
每一层卷积后都用ReLU层激活,所有核的尺寸都为5.

3.3损失函数
多尺度MSE损失:
权重相同。
同时还尝试了total variation loss核adversarial loss

4.实验
训练时每次选取16张图片,在每张图片上随机截取256*256的patches.



  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
回答: 在引用的论文中,"scale-deep"是指在图像去模糊任务中使用的一种多尺度和多层级的描述符。这个描述符是通过将每个阶段生成的特征连接起来形成的,并使用层次注意机制来调整特征的权重。通过计算特征的平均强度来衡量可分辨性,并使用全连接层获取可训练的注意力图。最终,通过使用残差图来保存主要的多尺度和多层级特征。这种方法类似于另一篇论文《Deep Stacked Hierarchical Multi-patch Network for Image Deblurring》,只是在结构上有所展开。\[2\]\[3\] #### 引用[.reference_title] - *1* *3* [论文阅读笔记之——《Scale-recurrent Network for Deep Image Deblurring》](https://blog.csdn.net/gwplovekimi/article/details/93170926)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [Multi-Scale Deep Feature Fusion for Vehicle Re-Identification翻译(IEEE2020)](https://blog.csdn.net/weixin_42666085/article/details/105492304)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值