SRfeat论文理解

https://github.com/HyeongseokSon1/SRFeat
问题:这种基于gan的方法的结果往往包含与输入图像无关的、没有意义的高频噪声。
解决:判别器鼓励发生器产生结构高频特征;生成器使用跳过连接。
两种判别器:一个图像判别器、一个特征判别器。基于结构分量。我们提出了一种新的具有远程跳跃连接的SISR发生器。
在这里插入图片描述
两个亚像素卷积层
在这里插入图片描述
在这里插入图片描述

  1. Lp是感知损失函数 i是图像GAN函数 f是特征GAN函数在这里插入图片描述
    在这里插入图片描述

训练

数据集
我们使用ImageNet数据集对生成器进行预训练。数据集包含1000个类别的数百万幅图像。我们随机采样了大约12万幅宽度和高度都超过400像素的图像,然后我们对采样的图像进行中央裁剪,用于预训练。我们使用了三个广泛使用的数据集:Set5 , Set14和100张BSD300的测试图像。
为了训练我们最终的基于gan的模型,我们使用了DIV2K数据集。使用DIV2K数据集训练基于gan的模型比使用ImageNet更快更稳定。为了扩大训练数据的容量,我们对DIV2K图像进行了数据增强。具体地说,我们对图像应用了随机翻转、旋转和裁剪来制作目标HR图像。此外,我们还采样了少量的训练图像,并将其缩小后的版本纳入1/2和1/4用于数据扩充,以训练网络能够处理不同尺度的内容。
实验中的训练细节
将HR图像裁剪为296×296个子图像,得到目标HR图像。我们使用双三次插值对图像进行下采样,得到74×74的低分辨率输入训练图像。我们将Ih和Il的强度范围归一化为[−1,1]。我们将式(3)中的权重为10−3。关于方程式里的题目。(4),(7)和(8),我们使用
因为我们发现Conv5通常比其他层产生更好的结果。为了平衡不同的损失项,在计算损失项之前,我们使用比例因子1/12.75对feature map的rma进行缩放。对于预培训和对抗培训,我们使用了Adam optimizer[26],并将动量参数为fackler1 = 0.9。对于培训前,我们执行大约28万次迭代,对于我们随机采样的ImageNet数据集来说,大约是20个epoch。我们将训练前的初始学习率设为10−4,当训练损失停止减少时,将初始学习率降低1/10。当学习率达到10−6时,我们使用该值,不再降低。我们进行了大约5个时期的对抗性训练,大约10万次迭代。我们用10 - 4作为前两个时期的学习速度,用10 - 5作为后两个时期的学习速度,用10 - 6作为最后一个对抗训练时期的学习速度。
我们在测试阶段固定了批处理标准化层中的参数。所有的机型都是在NVIDIA的Titan XP上训练的,它有12 GB的内存。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值