全文翻译见:https://blog.csdn.net/weixin_42113955/article/details/89001989
和https://blog.csdn.net/c2a2o2/article/details/78930865
1.
ptrain是真正的HR图像,也就是data要预测的。
pG是生成的超分辨图像
好处在于:固定 G,max V(G,D) 就表示 PG 和 Pdata 之间的差异,然后要找一个最好的 G,让这个最大值最小,也就是两个分布之间的差异最小。
2.训练
G: 使用两个卷积层,小的3×3内核和64个特征映射,然后是批量标准化层[32]和ParametricReLU [28]作为激活函数。 我们用Shi等人提出的两个经训练的子像素卷积层来增加输入图像的分辨率。
D: LeakyReLU激活(α= 0:2)并避免整个网络中的最大池化。 训练鉴别器网络以解决方程2中的最大化问题。它包含8个渐进层,其中3×3滤波器内核数量增加,从VGG网络中的64到512个内核增加2倍。 每次特征数量加倍时,使用条纹卷积来降低图像分辨率。 得到的512个特征图之后是两个密集层和最终的S形激活函数,以获得样本分类的概率
3.loss函数
4.实验
- widely used bench mark datasets
Set5 , Set14 and BSD100
, the testing set ofBSD300
- 四倍的放大比例
- 为了对比公正性,所有的PSNR[dB]和SSIM测量在enter-cropped (中心剪裁)的y 通道上计算,在每条边界上移除4像素宽的条带.
- 训练集: 350 thousand images from the ImageNet database
- content loss 的选择显得尤为重要
- 如何处理训练集:用下采样系数 r=4 的bicubic kernel。对每个mini-batch,剪裁16个不同训练图像的96*96的子图(随机),
- Adam来最优化,用学习率=0.0001和用10的六次方次更新迭代来训练SRResNet networks
- 当训练真实的GAN时,用训练好的基于MSE的SRResNET network 作为生成的的初始化,从而避免出现局部最优.所有的SRGAN变量经过10^5 次更新迭代训练(学习率=0.0001),另外进行了学习率=0.00001,迭代次数为10^5的训练.我们交替更新生成器和判别器网络,相当于Goodfellow等人用到的k=1.我们的生成器网络有16个相同的残差块(B=16).在测试时,我们我们turn batch-normalization off 来获得一个确定只依赖于输入的输出. 实现基于 Theano and Lasagne.
- 注意,我们可以把生成器模型应用到任意大小的图像上,因为它是全卷积的.
5.结论
content loss的发展.content loss function(描述图像空间内容,但在像素空间中对变化更不敏感)