AdderSR

1. 摘要

该文利用加法器神经网络(AdderNets)研究了单幅图像的超分辨率问题。与卷积神经网络相比,AdderNets利用加法来计算输出特征,从而避免了传统乘法的大量能耗。然而,由于计算范式的不同,很难将addernet在大规模图像分类上的成功直接继承到图像超分辨率任务中。具体来说,加法器操作不能很容易地学习身份映射,而这是图像处理任务的关键。此外,AdderNets还不能保证高通滤波器的功能。为此,该文深入分析了加法器操作与身份映射和插入快捷方式之间的关系,以提高使用加法器网络的SR模型的性能。然后,我们开发了一个可学习的功率激活来调整特征分布和细化细节。

2. 介绍

单图像超分辨率(SISR)是一种典型的计算机视觉任务,其目的是从低分辨率(LR)图像中重建高分辨率(HR)图像。SISR是在智能手机和移动摄像头等现实世界应用中一项非常流行的图像信号处理任务。由于这些便携式设备的硬件限制,有必要开发计算成本低、视觉质量高的SISR模型。

相比于之前的模型机剪纸等做法,该方法选择替换卷积神经网络为Adder网络,探究在超分辨率上的效果。由于加法的复杂性远低于乘法的复杂性,这项工作激励我们利用AdderNet构建能量有效的SISR模型

3. AdderNet的图像超分辨率

AdderNet显著降低了分类网络的能耗,同时实现了类似的性能。我们的目标是将这一巨大的成功继承到图像超分辨率任务中,它通常具有更高的能耗和计算复杂度。在SISR中,加法器神经网络需要保证两个重要的属性:每个卷积层的输入和输出特征之间的相似性,同时对于高频信息的增强。

3.1 初步和动机

本文首先简要介绍了使用深度学习方法的单图像超分辨率任务,然后讨论了直接使用AdderNets构建高效SR模型的困难。

SISR的目标是从低分辨率图像中重建高分辨率图像。这是一个典型的病定反向问题,因为无限数量的高分辨率图像可以通过降采样生成相同的低分辨率图像。传统SISR任务的目标函数可表述为:
a r g min ⁡ I X I y = I X + λ R ( I X ) (1) arg \min \limits_{\bold I_{\bold X}} \bold I_{\bold y}=\pmb I_{\pmb X}+\lambda R(\pmb I_{\pmb X}) \tag 1 argIXminIy=IIIXXX+λR(IIIXXX)(1)
其中 I y \pmb I_{\pmb y} IIIyyy为观测数据,即低分辨率图像, I X \pmb I_{\pmb X} IIIXXX为期望的高分辨率图像, R ( ⋅ ) R(·) R表示使用的先验,如平滑和加性噪声, λ λ λ为权衡参数。

在Adder网络任意层中,滤波器参数 W ∈ R k × k × c i n × c o u t \pmb W\in R^{k\times k\times c_{in}\times c_{out} } WWWRk×k×cin×cout,其中 k k k为核的大小, c i n c_{in} cin c o u t c_{out} cout分别为输入通道和输出通道的数量。将输入特征表示为 X ∈ R h × w × c i n \pmb X∈R^{h×w×c_{in}} XXXRh×w×cin,其中 w w w h h h分别为输入特征的宽度和高度。原始的加法器操作是:
Y ( m , n , q ) = − ∑ i = 1 k ∑ j = 1 k ∑ g = 1 c i n ∣ X ( m + i , n + j , g ) − W ( i , j , g , q ) ∣ (2) \pmb Y(m,n,q)=-\sum \limits_{i=1}^{k}\sum \limits_{j=1}^{k}\sum \limits_{g=1}^{c_{in}}|\pmb X(m+i,n+j,g)-\pmb W(i,j,g,q)| \tag 2 YYY(m,n,q)=i=1kj=1kg=1cinXXX(m+i,n+j,g)WWW(i,j,g,q)(2)
中, ∣ ⋅ ∣ |·| 为绝对值函数。 m , n m,n m,n代表特征的空间位置。 q q q是输出通道的索引。,虽然等式2显示了在图像分类任务上的可比性性能,在等式中定义的 S I S R SISR SISR问题1与传统的识别任务有很大的不同。例如,我们需要确保输出结果保持 X ( i . e I y ) \pmb X(i.e \pmb I_{\pmb y}) XXX(i.eIIIyyy)中的原始纹理,这是等式2不容易学习的 .因此,我们应该为节能的 S I S R SISR SISR模型设计一个新的AdderNet框架。

3.2 使用AdderNet学习身份映射

对于传统的卷积网络,当权值为单位矩阵时,单位映射非常容易学习。然而,在等式中定义的加法器神经网络采用 l 1 − n o r m l_1-norm l1norm来测量滤波器和输入数据之间的距离。虽然 l 1 l_1 l1距离在图像分类任务上表现得很好,但加法器滤波器不能近似于定理1中所描述的身份映射。叠加更多的加法器层可以缓解这一问题,但它会显著增加模型的大小和复杂性。

定理一:

对于任意低分辨率图像 I y \pmb I_{\pmb y} IIIyyy,以及具有权值参数W的加法器滤波器,不存在满足以下等式的 W W W:
I y = I y ⨁ W (3) \pmb I_{\pmb y}=\pmb I_{\pmb y}\bigoplus\pmb W \tag 3 IIIyyy=IIIyyyWWW(3)
其中,⊕表示在等式中定义的加法器等式 2.

证明:

为了简单起见,这里我们考虑一个全连接的层。假设存在一个过滤器 W W W满足$\pmb I_{\pmb y}=\pmb I_{\pmb y}\bigoplus\pmb W 对 于 任 何 对于任何 \pmb I_{\pmb y}∈R^{d×d×c} , 其 中 ,其中 \pmb W∈R^{d×d×c} 。 然 后 , 对 于 。然后,对于 \pmb I_{\pmb y}$中的每个元素,我们都有:
I y ( m , n , q ) = − ∑ i = 1 k ∑ j = 1 k ∑ g = 1 c i n ∣ I y ( m + i , n + j , q ) − W ( i , j , g , q ) ∣ (4) \pmb I_{}\pmb y(m,n,q)=-\sum \limits_{i=1}^{k}\sum \limits_{j=1}^{k}\sum \limits_{g=1}^{c_{in}}|\pmb I_{}\pmb y(m+i,n+j,q)-\pmb W(i,j,g,q)| \tag 4 IIIyyy(m,n,q)=i=1kj=1kg=1cinIIIyyy(m+i,n+j,q)WWW(i,j,g,q)(4)
其中, m ∈ { 1 , … … , d } , n ∈ { 1 , … … , d } , q ∈ { 1 , … … , c } m∈\{1,……,d\},n∈\{1,……,d\},q∈\{1,……,c\} m{1d}n{1d}q{1c}。然后,我们可以为 I y ( m , n , q ) \pmb I_{}\pmb y(m,n,q) IIIyyy(m,n,q)中的每个元素选择适当的值,这样 I y 1 ( m , n , q ) > m a x i , j , k , g ∣ W ( I , j , k , g ) ∣ \pmb I_{\pmb y}^{1}(m,n,q)>max_{i,j,k,g}|\pmb W(I,j,k,g)| IIIyyy1(m,n,q)>maxijkgWWW(Ijkg),我们有:
I y 1 ( m , n , q ) = − ∑ i = 1 k ∑ j = 1 k ∑ g = 1 c i n ∣ I y 1 ( m + i , n + j , q ) − W ( i , j , g , q ) ∣ (5) \pmb I_{\pmb y}^1(m,n,q)=-\sum \limits_{i=1}^{k}\sum \limits_{j=1}^{k}\sum \limits_{g=1}^{c_{in}}|\pmb I_{\pmb y}^1(m+i,n+j,q)-\pmb W(i,j,g,q)| \tag 5 IIIyyy1(m,n,q)=i=1kj=1kg=1cinIIIyyy1(m+i,n+j,q)WWW(i,j,g,q)(5)
I y 2 ( m , n , q ) = I y 1 ( m , n , q ) + 1 \pmb I_{\pmb y}^2(m,n,q)=\pmb I_{\pmb y}^1(m,n,q)+1 IIIyyy2(m,n,q)=IIIyyy1(m,n,q)+1,那么我们就有了:
I y 1 ( m , n , q ) + 1 = − ∑ i = 1 k ∑ j = 1 k ∑ g = 1 c i n ∣ I y 1 ( m + i , n + j , q ) + 1 − W ( i , j , g , q ) ∣ = − ∑ i = 1 k ∑ j = 1 k ∑ g = 1 c i n ∣ I y 1 ( m + i , n + j , q ) − W ( i , j , g , q ) ∣ − d 2 × c (6) \begin{aligned} \pmb I_{\pmb y}^1(m,n,q)+1&=-\sum \limits_{i=1}^{k}\sum \limits_{j=1}^{k}\sum \limits_{g=1}^{c_{in}}|\pmb I_{\pmb y}^1(m+i,n+j,q)+1-\pmb W(i,j,g,q)| \\ &=-\sum \limits_{i=1}^{k}\sum \limits_{j=1}^{k}\sum \limits_{g=1}^{c_{in}}|\pmb I_{\pmb y}^1(m+i,n+j,q)-\pmb W(i,j,g,q)|-d^2\times c \end{aligned} \tag 6 IIIyyy1(m,n,q)+1=i=1kj=1kg=1cinIIIyyy1(m+i,n+j,q)+1WWW(i,j,g,q)=i=1kj=1kg=1cinIIIyyy1(m+i,n+j,q)WWW(i,j,g,q)d2×c(6)
结合使用的等式5和6,我们有 d 2 × c + 1 = 0 d^2×c+1=0 d2×c+1=0,这显然是不可能的。此外,上述证明可以很容易地扩展到 W W W的滤波器大小往往比输入数据 I y \pmb I_{\pmb y} IIIyyy小得多的卷积层。为了解决这一问题,我们建议重新细化现有的加法器单元,以调整超分辨率任务。在实际应用中,我们为每个加法器层提出了一个自快捷操作:
Y l = X l + W l ⨁ X l (7) \pmb Y^{l}=\pmb X^l+\pmb W^l\bigoplus \pmb X^l \tag 7 YYYl=XXXl+WWWlXXXl(7)
其中, W l \pmb W^l WWWl为第1层加法器滤波器的权值, X l \pmb X^l XXXl Y l \pmb Y^l YYYl分别为输入数据和输出数据。等式7的输出包含输入数据 X l \pmb X^l XXXl本身,我们可以利用通过减少 W l ⨁ X l \pmb W^l\bigoplus \pmb X^l WWWlXXXl的大小来近似的恒等式映射。

3.3 可降低的功率激活函数

通常,自然图像是由不同频率的信息组成的。例如,背景和大面积的草都是低频信息,其中大部分的邻居像素都非常封闭。相比之下,物体和一些建筑的边缘恰好是给定的整个图像的高频信息。在实践中,如果我们将任意图像定义为高频部分和低频部分的组合为 I = I H + I L \pmb I=\pmb I_H+\pmb I_L III=IIIH+IIIL,一个用于超分辨率任务和其他图像处理问题的理想高通滤波器 Φ ( ⋅ ) Φ(·) Φ可以定义为:
Φ ( I ) = Φ ( I H + I L ) = σ ( I H ) (8) \Phi(\pmb I)=\Phi(\pmb I_H+\pmb I_L)=\sigma(\pmb I_H) \tag 8 Φ(III)=Φ(IIIH+IIIL)=σ(IIIH)(8)
它只保留了输入图像的高频部分。其中, σ ( I H ) σ(\pmb I_H) σ(IIIH)是高频部分的卷积响应。上述方程可以帮助SISR模型消除冗余输出和噪声,增强高频细节,这也是SISR模型中一个非常重要的组成部分。

同样,对于传统的卷积操作,等式8的功能可以直接实现。例如,一个2×2高通滤波器KaTeX parse error: \tag works only in display equations可以用于去除图像中的任何平坦区域。然而,对于等式中定义的加法器神经网络不可能实现等式8中描述的功能 。

定理而:

E ∈ R d × d \pmb E∈R^{d×d} EEERd×d使用加法器操作作为给定SR模型的输入图像,其中 E \pmb E EEE中的每个元素都等于1。W表示任意加法器滤波器的权值。不存在 W ∈ R d × d \pmb W∈R^{d×d} WWWRd×d和一个常数 a ∈ R a∈R aR 满足以下式子:
( s ∗ E ) ⨁ W = a (9) (s * \pmb E)\bigoplus \pmb W=a \tag 9 (sEEE)WWW=a(9)
其中, s ∈ R s∈R sR ⊕ ⊕ 表示加法器操作,它只包含在等式2中定义的加法。

证明:

假设存在一个满足$(s * \pmb E)\bigoplus \pmb W=a 的 加 法 器 的加法器 \pmb W , 对 于 任 何 ,对于任何 s∈R 。 我 们 可 以 找 到 一 个 满 足 。我们可以找到一个满足 s>max_{i,j}|\pmb W(i,j)|$。然后,我们就会有了:
− ∑ i = 1 d ∑ j = 1 d [ ( s + 1 ) E ( i , j ) − W ( i , j ) ] = a = − ∑ i = 1 d ∑ j = 1 d [ s E ( i , j ) − W ( i , j ) ] (10) \begin{aligned} -\sum \limits_{i=1}^d \sum \limits_{j=1}^d [(s+1)\pmb E(i,j)-\pmb W(i,j)]=a =-\sum \limits_{i=1}^d \sum \limits_{j=1}^d [s\pmb E(i,j)-\pmb W(i,j)] \end{aligned} \tag {10} i=1dj=1d[(s+1)EEE(i,j)WWW(i,j)]=a=i=1dj=1d[sEEE(i,j)WWW(i,j)](10)
上式显然不成立。根据上述定理,高通滤波器的功能不能被加法器滤波器所取代。因此,加法器神经网络中的超分辨率过程将涉及更多的冗余。为此,我们需要开发一种新的方案,使用加法器神经网络来执行SISR任务,以弥补这一缺陷。

提出了一个可学习的功率激活函数来解决AdderNet的缺陷,并对输出图像进行了细化:
P ( Y ) = s g n ( y ) ⋅ ∣ Y ∣ α (11) P(\pmb Y)=sgn(\pmb y)\cdot |\pmb Y|^{\alpha} \tag{11} P(YYY)=sgn(yyy)YYYα(11)
其中Y为输出特征,sgn(·)为符号函数,α>0为用于调整信息和分布的可学习参数。当α>1时,上述激活函数可以增强输出图像的对比度,强调高频信息。当有0个<α<1,等式时11可以平滑输出图像中的所有信号,去除伪影和噪声。此外,上述功能可以很容易地嵌入到任何SISR模型的传统ReLU中。

4. 效果

在这里插入图片描述

Reference:

[1]AdderSR: Towards Energy Effificient Image Super-Resolution

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值