【文章阅读】【超解像】-- Wide Activation for Efficient and Accurate Image Super-Resolution

【文章阅读】【超解像】-- Wide Activation for Efficient and Accurate Image Super-Resolution

论文链接:https://arxiv.org/abs/1808.08718v1

code:https://github.com/JiahuiYu/wdsr_ntire2018

本提出的网络结构在NTIRE2018比赛中SISR中获得了3个第一,研究了论文后对论文主要问题进行总结如下:

1.主要贡献

​ 1). SISR中的残差网络,更多的激活函数具有更好的性能,本文在未增加计算量的基础上提出了WDSR-A网络结构,该网络结构具有(2倍到4倍)的激活函数,具有更好的性能;

​ 2). 提出的WDSR-B网络结构,使用了1*1的卷积,在未增加额外的参数和计算复杂度的情况下,激活函数可提高(6倍到9倍),具有更好的性能;

​ 3). BN不适合用于训练深层SR网络结构,本文引入权重初始化方法应用到训练网络结构;

​ 4). 在DIV2K图像数据集上,利用权重初始化训练WDSR-A和WDSR-B两种网络结构;

2.论文分析

在这里插入图片描述

1)WDSR-A

​ 残差卷积中首先将图像特征缩小,在ReLU之前将图像特征扩大,这样在未增加计算量的基础上增加了非线性特征;如上图中的中间图,实验表明非线性特征可放大2-4倍;

2) WDSR-B

​ 利用1x1卷积核降低图像维数,在使用3x3卷积作为特征提取,如上图中的右图;

3) 权重初始化

​ 利用BN的缺点为:a) 在SR中为了加速训练,图像的Patch和mini-batch都很小,这样每个batch中的均值和方差变化较大,导致每次的数据不稳定,影响实验效果;b) BN 是一种过拟合的方法,而在SR中几乎无过拟合问题;c)和分类问题不同,分类问题最终利用softmax函数来做预测,SR问题中训练和测试过程中利用不同的权重归一化导致重建图像的准确率下降;本文利用权重初始化的方法进行数据归一化。

3.结果分析

​ 本文利用DIV2K数据集进行模型训练,使用ADAM进行训练优化,在RGB空间利用PSNR进行评价;实验结果如下:
在这里插入图片描述

​ 同时,作者通过实验比较了BN和WN的性能比较和不同的学习率的影响结果如下:
在这里插入图片描述
在这里插入图片描述

4.参考

https://www.toutiao.com/i6595267600056320516/

论文个人理解,如有问题,烦请指正,谢谢!

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值