深度递归网络
Abstract
16层递归网络,不用引入其他参数,就增加递归层数就可以。
我们提出了两个扩展:递归监督和跳过连接。recursive-supervision and skip-connection.
1. Introduction
(是介绍遇到的问题,我们的方法)
接受域 41*41。
发现用随机梯度下降法不容易收敛,会导致梯度爆炸。
我们提出两种方法来缓解困难
1.对所有递归进行监督。每次递归后的特征图用于重建
目标高分辨率图像(HR)。 重建方法(专用于重建的层)对于所有递归都是相同的。 由于每次递归都会导致不同的HR预测,我们结合了不同水平的预测结果递归以提供更准确的最终预测。 (下一次递归的输入是上一个的输出么?损失函数怎么计算?)
2.使用从输入到重建层的跳跃连接。 在SR中,低分辨率图像(输入)和高分辨率图像(输出)共享相同的图像信息在。 但是,在许多前向传递中,输入的精确可能会被削弱。我们将输入显式连接到层来进行输出重建。
2.Related work
不用看
深的递归网络可以增加表现。
到目前45min
5. Conclusion
重复使用权重。
3. Proposed Method
embedding传进去。传出特征向量。
用于将信息传递到推理网络的中间表示形式,在很大程度上取决于推理网络在内部如何在其隐藏层中表示其特征图。 学习此表示形式与学习其他子网是端到端的。
Inference :主要部分,解决了sr
(27mins)
有隐藏层。用RELU
还存在一个问题找到最佳的递归次数很难。
不最佳的话会出现梯度消失和梯度爆炸。
递归监督为了解决梯度和最优递归问题。
4 training
B100 consists of natural images
in the Berkeley Segmentation Dataset
91 images proposed in Yang et al
Dataset B100 consists of natural images
in the Berkeley Segmentation Dataset [20]
16个递归层
20层卷积层 4141的感受野
0.9的动量 0.0001的权重消失
256个33的滤波器
图片分为41*41的小块,21步,64个小块作为一个mini-batch
学习率初始值0.01,如果验证误差在5个周期之内没有降低,就降低十倍。如果小于10-6那么就会终止。
不太明白中间的递归是怎么回事