【翻译】ESPCN

上采样LR的另一个方式是用1/r的步长进行分步卷积。可以通过从LR空间到HR空间的插值,穿孔[27]或解池[49],然后在HR空间中进行跨度为1的卷积来实现。这种做法增加了r方倍的计算复杂度,因为卷积发生在HR的空间中。
另外,在LR空间中,步长的步幅为1/r的卷积与权重为1/r的大小为ks的滤波器Ws,会激活卷积的不同部分。位于像素之间的权重不需要被激活也不需要计算。激活模式的数量为r2.每个激活的模式根据他的位置,有大约【ks/r】2的权重被激活。这些模式在滤波器根据不同的亚像素位置对图像进行卷积时周期性地激活。mod(x,r)mod(y,r)这里xy是在高分辨空间里的坐标。在本文中,我们提出了在mod (ks, r) = 0时实现上述操作的一种有效方法:
在这里插入图片描述
PS是将H×W×C·r2张量的元素重新排列为形状rH×rW×C张量的周期变换算子。在数学上这个算子可以写为如下格式。
在这里插入图片描述
因此,卷积算子WL的形状为nL-1×r2C×kL×kL。注意到,我们没有对最后一层的卷积输出输出采用非线性运算。很容易看到,当在这里插入图片描述
的时候,相当于在LR空间中与滤波器Ws进行亚像素卷积。【什么叫做亚像素卷积?】我们将把我们的新层称为亚像素卷积层,把我们的网络称为高效的亚像素卷积神经网络(ESPCN)。最后一层直接从LR特征图生成HR图像,每个特征图有一个向上缩放的过滤器,如图4所示。
在这里插入图片描述
给了训练集包括HR的图片例子,我们生成相应的LR图像,作为训练网络的目标函数,计算重构的像素方向均方误差(MSE):
在这里插入图片描述
值得注意的是,与HR空间中的约简或卷积相比,上述周期性变换的实现可以非常快,因为每个操作都是独立的,因此在一个循环中可以很容易地并行化。因此,我们提出的层是log2r2倍于反卷积层在前向通过和r2倍于实现使用各种形式的升级卷积。

3.实验
tanh

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值