超分辨之----DRCN论文理解

深度递归网络

Abstract

16层递归网络,不用引入其他参数,就增加递归层数就可以。
我们提出了两个扩展:递归监督和跳过连接。recursive-supervision and skip-connection.

1. Introduction

(是介绍遇到的问题,我们的方法)
接受域 41*41。
发现用随机梯度下降法不容易收敛,会导致梯度爆炸。
我们提出两种方法来缓解困难
1.对所有递归进行监督。每次递归后的特征图用于重建
目标高分辨率图像(HR)。 重建方法(专用于重建的层)对于所有递归都是相同的。 由于每次递归都会导致不同的HR预测,我们结合了不同水平的预测结果递归以提供更准确的最终预测。 (下一次递归的输入是上一个的输出么?损失函数怎么计算?)
2.使用从输入到重建层的跳跃连接。 在SR中,低分辨率图像(输入)和高分辨率图像(输出)共享相同的图像信息在。 但是,在许多前向传递中,输入的精确可能会被削弱。我们将输入显式连接到层来进行输出重建。
在嵌入网络推理网络重构网络这里插入图片描述
是上面那个黄色的展开

2.Related work

不用看
深的递归网络可以增加表现。
在这里插入图片描述
在这里插入图片描述
到目前45min

5. Conclusion

重复使用权重。

3. Proposed Method

在这里插入图片描述
embedding传进去。传出特征向量。
用于将信息传递到推理网络的中间表示形式,在很大程度上取决于推理网络在内部如何在其隐藏层中表示其特征图。 学习此表示形式与学习其他子网是端到端的。
Inference :主要部分,解决了sr
(27mins)
有隐藏层。用RELU
还存在一个问题找到最佳的递归次数很难。
不最佳的话会出现梯度消失和梯度爆炸。
递归监督为了解决梯度和最优递归问题。

4 training

B100 consists of natural images
in the Berkeley Segmentation Dataset
91 images proposed in Yang et al
Dataset B100 consists of natural images
in the Berkeley Segmentation Dataset [20]
16个递归层
20层卷积层 4141的感受野
0.9的动量 0.0001的权重消失
256个3
3的滤波器
图片分为41*41的小块,21步,64个小块作为一个mini-batch
学习率初始值0.01,如果验证误差在5个周期之内没有降低,就降低十倍。如果小于10-6那么就会终止。

不太明白中间的递归是怎么回事

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值