论文笔记之超分二:IKC-MetaSR-ODEInspired

2019前超分文章记录 SRCNN-FSRCNN-ESPCN-VDCN-DRCN-RDN-LapSRN-SRDenseNet

2019CVPR超分文章记录系列一:FSTRN-resLR-SRFBN-RBPN

1.Blind Super-Resolution With Iterative Kernel (IKC)

1.1 介绍

当预先定义的模糊核与实际模糊核不同时,基于学习的方法将遭受严重的性能下降。
将未知模糊核的超分问题我们定义为blind SR。这种设置比较符合实际真实情况。**所以这篇文章解决的是超分里面的一个blind super-resolution问题。**这个问题假设下采样的核是未知的。
由核不匹配引起的artifacts是有规则的模式。这种核不匹配影响的不对称性为作者如何纠正不精确的模糊核提供了经验指导。提出了一个Iterative Kernel Correction (IKC) 方法实现predict-and-correct原则,(。作者发现以图像和模糊核的concate作为输入不是最佳选择。采用了空间特征变换(SFT)层,提出一个用于多种模糊核的结构(SFTMD)。通过组合IKC和SFTMD,实现超分目标。

1.2 方法

1.2.1 问题定义

blind SR问题定义如下,HR图像和LR图像之间有一个退化模型
I L R = ( k ⊗ I H R ↓ s + n I^{LR} = (k⊗I^{HR}↓_s + n ILR=(kIHRs+n
⊗ ⊗ 代表卷积计算,blur kernel是 k k k,降采样操作是 ↓ s ↓_s s,加上噪声 n n n,本文只考虑不带运动模糊的各项异性模糊核(isotropic blur kernel)。文章考虑高斯模糊和双三次下采样的组合,同时加性噪声用高斯扰动模型。

1.2.2 动机

HR图片 I H R I^{HR} IHR首先由各向异性的高斯核模糊(kernel width σ L R \sigma_{LR} σLR),假设映射 F ( I L R , k ) F(I^{LR},k) F(ILR,k)是训练良好的SR模型,以核信息为输入,然后输出图像无伪影和正确的核k。blind SR(盲超分)问题就相当于找到核 k k k 帮助SR模型产生视觉效果良好的图像 I S R I^{SR} ISR。一个直接的方法就是采用一个预测方程 k ′ = P ( I L R ) k^{'} = P(I^{LR}) k=P(ILR),从输入的低像素图像直接预测 k k k。预测可以通过下面优化
θ P = a r g m i n θ P ∣ ∣ k − P ( I L R ; θ P ) ∣ ∣ 2 2 \theta_P = argmin_{\theta_P}||k-P(I^{LR};\theta_P)||_2^2 θP=argminθPkP(ILR;θP)22
通过这种方式建立盲超分模型。
但是准确预测 k k k是很困难的,反过来说,对于一个输入可以又多个 k k k,错误的 k k k会导致明显的伪影,图片处理结果比真是结果增强或者模糊。于是作者提出一个iteratively correct kernel直到获取正确的SR图像。
为了估计 k k k,作者建立了一个校正函数 C C C用于比较估计的核和真实的核的差别。作者一个核心观点是采用中间的SR结果,矫正方程通过最小化矫正过的核核gt的 l 2 l_2 l2距离得到。
θ C = a r g m i n θ C ∣ ∣ k − ( C ( I S R ; θ C ) + k ′ ) ∣ ∣ 2 2 \theta_C = argmin_{\theta_C}||k - (C(I^{SR};\theta_C) + k^{'})||_2^2 θC=argminθCk(C(ISR;θC)+k)22
θ C \theta_C θC是矫正函数 C C C的参数, I S R I^{SR} ISR是最后的超分结果。
如果只是用一次矫正,结果可能不好,比较好的方法是小步长地矫正。

1.2.3方法

总体结构:包括了超分模型 F F F,预测器 P P P,矫正器 C C C。伪代码如图:
IKC伪代码
首先假设图片大小为 I L R = C ∗ H ∗ W I^{LR}=C * H * W ILR=CHW, 假设模糊核大小为 l ∗ l l * l ll,这是一个 l 2 l^2 l2-维度的线性空间,为了减小运算,先对核做PCA处理降维,投影到 b b b-维度线性空间,通过一个 M ∈ R b ∗ l 2 M \in R^{b * l^2} MRbl2的矩阵。只需要在低维空间做估计。降维后的核我们表示为 h h h h = M k h = Mk h=Mk。初始的 h 0 h_0 h0通过预测方程 h 0 = P ( I L R ) h_0 = P(I^{LR}) h0=P(ILR)得到,然后用来做第一次超分 I 0 S R = F ( I L R , h 0 ) I_0^{SR} = F(I^{LR},h_0) I0SR=F(ILR,h0)。获得初始预测后,进入估计核的校正阶段。在第 i i i次迭代,上一次的估计是 h i − 1 h_{i-1} hi1,上一次更新的结果是 Δ h i \Delta h_i Δhi,新的预测 h i h_i hi,新的超分图片为
Δ h i = C ( I i S R , h i − 1 ) \Delta h_i = C(I_i^{SR}, h_{i -1}) Δhi=C(IiSR,hi1)
h i = h i − 1 + Δ h i h_i = h_{i-1} + \Delta h_i hi=hi1+Δhi
I i S R = F ( I L R , h i ) I_i^{SR} = F(I^{LR}, h_i) IiSR=F(ILR,hi)

1.2.4 SR模型F的网络结构在这里插入图片描述

之前一个工作SRMD的做法是先将核 h h h扩展成kernal maps,大小为 b ∗ H ∗ W b*H*W bHW,第 i i i层所有的元素都等于 h h h的第 i i i个值。然后将kernal map核图片大小concate起来,大小为 ( b + C ) ∗ H ∗ W (b+C)*H*W (b+C)HW。然后是级联的 3 ∗ 3 3*3 33卷积核,一个pixel-shuffle上采样层用于超分。但是,为了探索kernel的信息,将图片核转换后concate起来也不是最好的,或者不是唯一的方式。核并没有图片的信息,同时处理核核图片的信息会产生与图像无关的干扰。同时核只是在第一层输入,深度网络很难对第一层的信息做调整。所以作者提出了一个新的SR模型,使用spatial feature transform(SFT)层。
在SFTMD中,核映射通过SFT对每个中间层特征应用仿射。网络设计使用了high-level的SRResNet,扩展成SFT层,通过缩放和移位操作为以核映射H为条件的特征映射F提供仿射变换。通过应用缩放核和平移对特征 F F F产生影响
S F T ( F , H ) = γ ⊙ F + β SFT(F, H) = \gamma ⊙ F + \beta SFT(F,H)=γF+β
⊙ ⊙ 表示Hadamard product,假设上一层 F F F的输出是 C f ∗ H ∗ W C_f * H * W CfHW, 那么concate起来的特征是 ( b + C f ) ∗ H ∗ W (b + C_f)*H*W (b+Cf)HW。网络根据这些特征,得到 γ \gamma γ β \beta β。SFT模块用在了residual blocks的卷积层还有global residual connection之后。

1.2.5 Network architecture of predictor P P P and corrector C C C

在这里插入图片描述

对于预测器,用的是四个带有Leaky ReLU的卷积层和一个全局池化层。卷积层给出核h在空间上的估计,并形成估计映射。池化层在空间上取平均值给出全局估计。
对于矫正器,包括了两个输入,通过下面的公式优化:
θ C = a r g m i n θ C ∣ ∣ k − ( C ( I S R ; θ C ) + k ′ ) ∣ ∣ 2 2 \theta_C = argmin_{\theta_C}||k - (C(I^{SR};\theta_C) + k^{'})||_2^2 θC=argminθCk(C(ISR;θC)+k)22
输入的 I S R I^{SR} ISR图像通过前面的卷积,可以提取除伪影。然后扩展 f h f_h fh F h F_h Fh,将 F S R F_{SR} FSR F h F_h Fhconcate起来,预测 Δ h \Delta h Δh

1.3 数据预处理

For the isotropic Gaussian blur kernels used for training, the ker- nel width ranges are set to [0.2, 2.0], [0.2, 3.0] and [0.2, 4.0] for SR factors 2, 3 and 4, respectively. The kernel size is fixed to 21×21. When applying on real world images, we use the additive Gaussian noise with covariance σ = 15.
同时提供了test kernel.

2.Meta-SR: A Magnification-Arbitrary Network for Super-Resolution

本文实现了任意放大比例,可以非整数的。通过一个Feature Learning Module和Meta- Upscale Module实现。

2.1 Method

如图所示,网络分成了两部分,低像素图片的特征提取和元上采样模块。假设高像素图像为 I H R I^{HR} IHR,采样得到的低像素图像为 I L R I^{LR} ILR,网络超分得到的图像是 I S R I^{SR} ISR。对于特征提取网络,采用的是RDN模块。用 F [ b a o ′ z h e 表 示 提 取 出 来 的 特 征 , 假 设 缩 放 因 子 是 F^[bao'zhe表示提取出来的特征,假设缩放因子是 F[baozher , 对 于 S R 图 像 里 的 每 个 像 素 ,对于SR图像里的每个像素 SR(i, j) , 我 们 认 为 它 是 由 低 像 素 图 像 上 像 素 , 我们认为它是由低像素图像上像素 ,(i{’},j{’}) 特 征 和 对 应 滤 波 器 的 权 重 决 定 。 从 这 个 角 度 看 , 可 以 把 u p s a c l e 模 块 堪 称 是 一 个 从 特征和对应滤波器的权重决定。从这个角度看,可以把upsacle模块堪称是一个从 upsacleI{SR}$到$F{SR} 的 映 射 过 程 。 首 先 上 采 样 模 块 将 的映射过程。首先上采样模块将 (i,j) 映 射 到 映射到 (i^{’}, j{’})$。然后需要一个特定的滤波器让$(i{’},j^{’}) 产 生 像 素 产生像素 (i,j)$。我们将上采样模块表示为:
I S R ( i , j ) = Φ ( F L R ( i ′ , j ′ ) , W ( i , j ) ) I^{SR}(i, j) = \Phi(F^{LR}(i^{'}, j^{'}), W(i, j)) ISR(i,j)=Φ(FLR(i,j),W(i,j))

那么这里没改像素都要有一个对应的滤波器。对于不同的缩放因子,需要不同的模型,作者提出一个Meta-Upsacle Module实现基于缩放因子和坐标信息动态预测权重 W ( i , j ) W(i, j) W(i,j)

对于Meta-Upscale Module,有三个重要的方程。

  • Location Projection 将像素映射都低像素
  • Weight Prediction 预测预测sr图像每像素点的权重
  • Feature Mapping 将具有预测权重的特征映射回SR图像,计算像素值。

Meta-SR

Location Projection

对于每个SR上的每个像素 ( i , j ) (i,j) (i,j),location projection就是找到在 ( i ′ , j ′ ) (i^{'},j^{'}) (i,j)在LR图像上的位置。作者用了下面的映射操作:
( i ′ , j ′ ) = T ( i , j ) = ( ⌊ i r ⌋ , ⌊ j r ⌋ ) (i^{'},j^{'}) = T(i, j) = (\lfloor \frac{i}{r}\rfloor, \lfloor \frac{j}{r}\rfloor) (i,j)=T(i,j)=(ri,rj)
位置投影可以看作是一种可变的分数步长的机制,它可以用任意比例因子对特征地图进行升级。
如图所示,如果r是2,那么每个pixel ( i ′ , j ′ ) (i^{'},j^{'}) (i,j) 就对应两个点。
在这里插入图片描述

Weight Prediction

Meta-Upscale Module使用一个网络去预测滤波器的权重
W ( i , j ) = ϕ ( v i j ; θ ) W(i, j) = \phi(v_{ij}; \theta) W(i,j)=ϕ(vij;θ)
W ( i , j ) W(i, j) W(i,j)是SR图形上像素 ( i , j ) (i, j) (i,j)上滤波器的权重。 v i j v_{ij} vij是一个和 i , j i, j i,j有关的向量, ϕ ( . ) \phi(.) ϕ(.)是预测网络。
对于像素 ( i , j ) (i,j) (i,j) ϕ ( . ) \phi(.) ϕ(.)输入,使用 ( i ′ , j ′ ) (i^{'},j^{'}) (i,j)的相对位移, v i j v_{ij} vij可以表示成: v i j = ( i r − ⌊ i r ⌋ , j r − ⌊ j r ⌋ ) v_{ij} = (\frac{i}{r} - \lfloor \frac{i}{r}\rfloor, \frac{j}{r} - \lfloor \frac{j}{r}\rfloor) vij=(riri,rjrj)
为了让网络学到多缩放因子,把缩放因子也加入到向量 v i j v_{ij} vij里面,所以把 v i j v_{ij} vij记成:
v i j = ( i r − ⌊ i r ⌋ , j r − ⌊ j r ⌋ , 1 r ) v_{ij} = (\frac{i}{r} - \lfloor \frac{i}{r}\rfloor, \frac{j}{r} - \lfloor \frac{j}{r}\rfloor,\frac{1}{r}) vij=(riri,rjrj,r1)

Feature Mapping

F L R F^{LR} FLR上提取到低像素图像上 ( i ′ , j ′ ) (i^{'},j^{'}) (i,j)的特征bao,预测滤波器的最终。最后就是将特征映射到SR图像上。使用
Φ ( F L R ( i ′ , j ′ ) , W ( i , j ) ) = F L R ( i ′ , j ′ ) W ( i , j ) \Phi(F^{LR}(i^{'},j^{'}),W(i, j)) = F^{LR}(i^{'},j^{'})W(i,j) Φ(FLR(i,j),W(i,j))=FLR(i,j)W(i,j)
在这里插入图片描述

3 ODE-inspired Network Design for Single Image Super-Resolution

3.1 ODE-inspired network design for SISR

在CNN语义中,时间范围x对应于可自适应选择的层,而最终状态则受标签的限制。关键是设计一个网络实现这个目标。

Mapping numerical ODEs to building blocks In

我们定义可以描述为ODE的动力系统:
d y d x = f ( x , y ) \frac{dy}{dx} = f(x,y) dxdy=f(x,y)
系统提供了一个映射 Φ ( y 0 , x ) = y ( x ; y 0 ) \Phi(y_0, x) = y(x; y_0) Φ(y0,x)=y(x;y0)
初始 y 0 ∈ R d y_0 \in R^d y0Rd,假设 p 0 p_0 p0 是输入特征 y 0 y_0 y0在空间 Ω \Omega Ω的分布,将CNN-base超分看成一个动态系统,假设 L = ∫ Ω ∣ ∣ Φ ( y 0 , x ) − y ∣ ∣ d p ( y 0 ) L = \int_{\Omega}||\Phi(y_0,x) - y|| dp(y_0) L=ΩΦ(y0,x)ydp(y0)
其中 Φ \Phi Φ是要学习的映射,和第一个方程的解有联系。
前向欧拉法里面: y n + 1 = y n + h f ( x n , y n ) y_{n+1} = y_n + hf(x_n, y_n) yn+1=yn+hf(xn,yn),在微积分里面 y n + 1 − y n ≈ h y ′ y_{n+1} - y_n \approx hy^{'} yn+1ynhy。Residual blaock的形式是 y n + 1 = y n + G ( y n ) y_{n+1} = y_n + G(y_n) yn+1=yn+G(yn)。所以我们可以得到 G ( y n ) = h f ( x n , y n ) G(y_n) = hf(x_n, y_n) G(yn)=hf(xn,yn)
在这里插入图片描述

3.1.1 LF-Block

可以有 y ′ ≈ ( y n + 1 − y n − 1 ) / 2 h y^{'} \approx (y_{n+1} - y_{n-1})/2h y(yn+1yn1)/2h,即可以得到下面的方程
y n + 1 = y n − 1 + 2 h f ( x n , y n ) y_{n+1} = y_{n-1} + 2hf(x_n, y_n) yn+1=yn1+2hf(xn,yn)
同理有 y n , y n − 1 y_n,y_{n-1} yn,yn1,对应于Fig b。这里没有限制G是一个固定的模块。

3.1.2 RK2-Block

梯形公式
y n + 1 = y n + h 2 ( f ( x n , y n ) + f ( x n + 1 , y ^ n + 1 ) ) y_{n+1} = y_n + \frac{h}{2}(f(x_n, y_n) + f(x_{n+1},\hat y_{n+1})) yn+1=yn+2h(f(xn,yn)+f(xn+1,y^n+1))
y ^ n + 1 \hat y_{n+1} y^n+1换成 y n + 1 = y n + h f ( x n , y n ) y_{n+1} = y_n + hf(x_n, y_n) yn+1=yn+hf(xn,yn),有
y n + 1 = y n + 1 2 ( G 1 + G 2 ) y_{n+1} = y_n + \frac{1}{2}(G_1 + G_2) yn+1=yn+21(G1+G2)
G 1 = h f ( x n , y n ) G_1 = hf(x_n, y_n) G1=hf(xn,yn)
G 2 = h f ( x n + h , y n n + G 1 ) G_2 = hf(x_n + h, yn_n + G_1) G2=hf(xn+h,ynn+G1)
网络结构如图1 c

3.1.3 RK3-Block

Runge-Kutta方法可以写成任意 n n n阶通过
y n + 1 = y n + ∑ i = 1 n γ i G i y_{n+1} = y_n + \sum_{i = 1}^n \gamma_i G_i yn+1=yn+i=1nγiGi
G 1 = h f ( x n , y n ) G_1 = hf(x_n, y_n) G1=hf(xn,yn)
G i = h f ( x n + α i h , y n + ∑ 1 i − 1 β i j k j ) G_i = hf(x_n + \alpha_i h, y_n + \sum_{1}^{i-1}\beta_{ij}k_j) Gi=hf(xn+αih,yn+1i1βijkj)
比如对于3阶Lunge-Kutta
y n + 1 = y n + 1 6 ( G 1 + 4 G 2 + G 3 ) y_{n+1} = y_n + \frac{1}{6}(G_1 + 4G_2 + G_3) yn+1=yn+61(G1+4G2+G3)
G 1 = h f ( x n , y n ) G_1 = hf(x_n, y_n) G1=hf(xn,yn)
G 2 = h f ( x n + h 2 , y n + 1 2 G 1 ) G_2 = hf(x_n + \frac{h}{2}, y_n + \frac{1}{2}G_1) G2=hf(xn+2h,yn+21G1)
G 3 = h f ( x n + h , y n − G 1 + 2 G 2 ) G_3 = hf(x_n + h, y_n - G_1 + 2G_2) G3=hf(xn+h,ynG1+2G2)

3.2 OISR总体结构

总体结构是一个Convolution-PixelShuffl框架。如果不限制在有限步,最终 h n h_n hn可以趋于0
最终实验设计比较了不同方式下,不同模块 G G G的结果
还有和以往不同网络的结果比较

在这里插入图片描述

G的不同形式,每种形式至少保留一个激活方程和一个卷积,保证非线性,实际上不同的数值方法对应不同的策略。无论是高阶方法还是改进的G都有助于提高性能:
在这里插入图片描述

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这是一个一维无限深势阱问题,势能在|x|<10的区域内为0,在|x|>10的区域内为无限大。我们可以将波函数分为三个区域:左边的无限深势阱、中间的自由空间、右边的无限深势阱。 在左右两个无限深势阱内,波函数必须为零,因此只需要考虑自由空间中的波函数。在自由空间中,波函数满足薛定谔方程: $$ -\frac{1}{2} \frac{\partial^2 \psi(x)}{\partial x^2} + E\psi(x) = 0 $$ 其中E是能量。我们假设波函数形式为: $$ \psi(x) = A e^{ikx} + Be^{-ikx} $$ 其中,k是波矢,A和B是待定系数。 将波函数代入薛定谔方程,得到: $$ k^2 = \frac{2mE}{\hbar^2} $$ 在|x|<10的区域中,由于势能为零,波函数为: $$ \psi(x) = C_1 \sin(k_1 x) + C_2 \cos(k_2 x) $$ 其中,k1和k2为: $$ k_1 = \sqrt{\frac{2mE}{\hbar^2}} $$ $$ k_2 = 0 $$ 在|x|>10的区域中,势能为无限大,波函数必须为零。 由于波函数必须满足连续性和可导性,我们可以利用波函数在两个无限深势阱边界处的连续性和导数不连续性来求解待定系数。具体地,我们可以先确定两个无限深势阱边界处波函数值相等,即: $$ C_1 \sin(k_1 10) + C_2 \cos(k_2 10) = A e^{10ik} + B e^{-10ik} $$ 然后,我们再利用波函数在边界处的导数不连续性来求解A和B。具体地,我们可以将薛定谔方程左右两边分别对x求导,得到: $$ -\frac{1}{2} \frac{\partial^3 \psi(x)}{\partial x^3} + E \frac{\partial \psi(x)}{\partial x} = 0 $$ 将波函数代入上式,得到: $$ ikC_1 \sqrt{\frac{2mE}{\hbar^2}} \cos(k_1 10) = ikA e^{10ik} - ikB e^{-10ik} $$ 将前面求解得到的C1、C2代入上式,即可求解出A和B。 最后,我们可以利用能量守恒的条件,即波函数的模平方在整个空间内积分等于1,来求解能量E的本征值。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值