FeedBack Network for Image super Resolution阅读笔记

前言

CVPR2019的一篇论文。

保证网络深度的同时,为了减少网络的参数量,通常使用循环的结构。但是,大多具有循环结构的网络都是以前馈的方式共享信息,这样前一层无法从后一层访问有用的信息。

生物学中,连接大脑皮层视觉区域的反馈连接可以将反应信号从高阶区域传递到低阶区域。受其启发,利用反馈机制将高级信息传回前一层,并细化低级编码特征。

借鉴CVPR2017论文Feedback Network的思路,提出了一种新的图像超分辨率网络,即超分辨率反馈网络(Super-Resolution Feedback Network, SRFBN)。本质上是一个带有反馈块(FB)的RNN。FB由多组上下采样层和密集的跳跃连接构成。

如下图所示,每次迭代时的输出都会流入下一次迭代以控制输入。

在这里插入图片描述
为了确保每次迭代的输出包含HR图像的信息,用损失函数监督训练过程中的每次迭代。反馈方案的原理是,粗糙SR图像的信息可以帮助LR图像重建更好的SR图像。

在这里插入图片描述
总结,论文的主要工作有以下三点:

  1. 提出了一种采用反馈机制的图像超分辨率反馈网络。这种带有反馈连接的循环结构有较强的早期重建能力,且需要的参数较少。
  2. 提出了反馈块(FB)。不仅有效地处理反馈信息流,而且通过上下采样层和密集的跳跃连接丰富高层表示。
  3. 基于课程学习的训练策略。根据重构难度对训练样本进行排序,使网络由易到难逐步学习。

感兴趣的地方:

  1. 反馈机制如何发挥作用
  2. 课程学习的训练方法,如何对训练样本进行排序
  3. 损失函数的设计

1. 模型结构与反馈机制

高级信息可以引导LR图像更好地恢复SR图像。有三个不可缺少的部分加强反馈方案。

  1. 每次迭代计算损失,迫使网络在每次迭代时重建SR图像,从而允许隐藏状态携带高层信息的概念。
  2. 使用递归结构,以实现迭代过程。
  3. 在每次迭代时提供LR输入,以确保低层信息的可用性。

网络整体结构如下图所示,蓝色箭头表示反馈连接,绿色箭头表示全局残差跳跃连接。
在这里插入图片描述
网络可以展开为T次迭代,从1到T。为了使每次迭代带有输出的概念,将每次迭代的输出计算损失。每次迭代的网络包含三个部分:LR特征提取块(LRFB)、反馈块(FB)、重构块(RB)。

FB的结构如下所示。

在这里插入图片描述

使用Conv(1,m)对 F i n t F_{in}^t Fint F o u t t − 1 F_{out}^{t-1} Foutt1进行连接和压缩,通过反馈信息 F o u t t − 1 F_{out}^{t-1} Foutt1来细化输入特征 F i n t F_{in}^t Fint,产生细化后的输入特征 L 0 t L_0^t L0t

L 0 t = C 0 ( [ F o u t t − 1 , F i n t ] ) L_0^t=C_0([F_{out}^{t-1},F_{in}^{t}]) L0t=C0([Foutt1,Fint])

其中, C 0 C_0 C0表示初始压缩操作, [ F o u t t − 1 , F i n t ] [F_{out}^{t-1},F_{in}^{t}] [Foutt1,Fint]表示 F o u t t − 1 F_{out}^{t-1} Foutt1 F i n t F_{in}^t Fint串联拼接。

H g t H_g^t Hgt L g t L_g^t Lgt是FB中第g个投影组在第t次迭代时给出的HR和LR特征映射。

H g t H_g^t Hgt由以下方式获得:

H g t = C g ↑ ( L 0 t , L 1 t , … , L g − 1 t ) H_g^t=C_g^{\uparrow}({L_0^t,L_1^t,\ldots,L_{g-1}^t}) Hgt=Cg(L0t,L1t,,Lg1t)

其中, C g ↑ C_g^{\uparrow} Cg指的是第g个投影组使用Deconv(k,m)的上采样操作。

相应的,可以通过以下方式获得 L g t L_g^t Lgt

L g t = C g ↓ ( [ H 1 t , H 2 t , … , H g t ] ) L_g^t=C_g^{\downarrow}([H_1^t,H_2^t,\ldots,H_g^t]) Lgt=Cg([H1t,H2t,,Hgt])

其中, C g ↓ C_g^{\downarrow} Cg指的是在第g个投影组使用Conv(k,m)的下采样操作。除了第一个投影组外,为了参数和计算效率,在 C g ↑ C_g^{\uparrow} Cg C g ↓ C_g^{\downarrow} Cg之前加上了Conv(1,m)。

为了利用每个投影组的有用信息,并且使输出特征 F o u t t F_{out}^t Foutt与下一次迭代的输入LR特征 F i n t + 1 F_in^{t+1} Fint+1的大小保持一致。对投影组生成的LR特征进行特征融合。

F o u t t = C F F ( [ L 1 t , L 2 t , … , L G t ] ) F_{out}^t=C_{FF}([L_1^t,L_2^t,\ldots,L_G^t]) Foutt=CFF([L1t,L2t,,LGt])

其中, C F F C_{FF} CFF代表Conv(1,m)。

2. 课程学习策略与损失函数

使用L1损失函数来训练网络。使用T个目标高分辨率图像 ( I H R 1 , I H R 2 , … , I H R T ) (I_{HR}^1,I_{HR}^2,\ldots,I_{HR}^T) (IHR1,IHR2,,IHRT)来监督多个输出。 ( I H R 1 , I H R 2 , … , I H R T ) (I_{HR}^1,I_{HR}^2,\ldots,I_{HR}^T) (IHR1,IHR2,,IHRT)对于同一个退化模型是相同的。对于复杂的退化模型, ( I H R 1 , I H R 2 , … , I H R T ) (I_{HR}^1,I_{HR}^2,\ldots,I_{HR}^T) (IHR1,IHR2,,IHRT)根据T次迭代的任务难度进行排序,来进行课程学习。

网络中的损失函数可以表示为:

L ( Θ ) = 1 T ∑ t = 1 T W t ∥ I H R t − I S R t ∥ 1 L(\Theta)=\frac{1}{T} \sum_{t=1}^T W^t \| I_{HR}^t-I_{SR}^t \| _1 L(Θ)=T1t=1TWtIHRtISRt1

其中, Θ \Theta Θ表示网络的参数, W t W^t Wt是一个恒定的数,表示第t次迭代时输出的价值,与论文Feedback Network中一样,每次迭代时都设置为1,表示每个输出都有相同的贡献。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值