论文笔记:Burst Denoising with Kernel Prediction Networks

标题

Introduction

这是UC Berkeley与Google Research于CVPR2018发表的一篇多图像去噪论文。其提出了一种CNN网络结构可以预测空间变化的核(kernel),利用得到的每个位置的Kernel对图像进行局部配准和降噪。文章基于真实噪声生成模型对ground truth图像加噪声和偏移,合成训练数据,并利用退火损失函数来引导优化过程,避免陷入局部最小值。
该文章的主要贡献在于:

  • 将互联网上获得的经过后处理的图像,转换成具有线性RAW图像特性的数据。这使得训练模型可以推广到真实图像和环境中,解决了ground truth数据难以获取的问题。
  • 提出了一种网络结构,其性能在合成数据和真实数据上都优于现有水平。其可以对每个位置生成一个3D去噪核,从而生成去噪图像。
  • 提出了一种针对于该核预测网络的训练流程,使得网络可以利用多张图像的信息来预测滤波核,即使这些图像之间存在着未知的偏移。
  • 证明了在训练和测试时,将输入图像的噪声水平作为网络的输入,得到的网络将会对更宽的的噪声水平范围具有鲁棒性。

Problem specification

文章的目标是通过手持相机获取的多张有噪声图像,然后生成一张“干净”的图像。
所有的输入图像都在线性RAW空间,不经过图像后处理流程从而避免信息的丢失。

RAW数据特性

RAW数据的噪声主要来自于两方面:

  • shot noise:其服从泊松分布,且方差等于信号水平。
  • read noise:近似服从高斯分布,其由多种传感器读出效应造成。

这些噪声可以通过一个信号依赖的高斯分布来建模:
x p ∼ N ( y p , σ r 2 + σ s y p ) x_p\sim\mathcal{N}(y_p,\sigma^2_r+\sigma_sy_p) xpN(yp,σr2+σsyp)

其中, x p x_p xp是位于像素 p p p位置的真实亮度 y p y_p yp的一个噪声测量。噪声参数 σ r \sigma_r σr σ s \sigma_s σs对于每张图片是固定的,其只随ISO变化而改变。

合成训练数据

文章使用Open Images dataset中的图像,适当的引入偏移和噪声合成训练数据,模拟真实图像序列的特性。
为了生成N帧图像序列,文章利用一张图像生成N张裁剪图像,各帧之间的裁剪存在随机偏移 Δ i \Delta_i Δi,其服从2D均匀整数分布。然后对这些裁剪图像在每个维度上使用box filter下采样4倍,从而减少噪声并压缩artifacts。限制下采样后的裁剪图像与参考图像之间最大存在 ± 2 \pm2 ±2像素的偏移。
为了模拟由于存在大位移而配准失败的情况,对于每一图像序列随机挑选 n ∼ P o i s s o n ( λ ) n\sim Poisson(\lambda) nPoisson(λ)帧,在下采样后做最大 ± 16 \pm16 ±16像素的偏移。对于8帧的图像序列, λ = 1.5 \lambda=1.5 λ=1.5
为了生成噪声,先把裁剪图像做逆gamm校正,使其转换到近似线性颜色空间。然后线性放缩数据,缩放比例从 [ 0.1 , 1 ] [0.1,1] [0.1,1]区间中随机采样,避免数据出现高亮截止区域。最后,通过从真实数据中观察到的噪声参数关系中,采样得到 σ r \sigma_r σr σ s \sigma_s σs。利用上述噪声模型对图像序列添加噪声。
噪声参数关系

Model

Model
核预测网络(KPN)生成逐像素滤波核,同时对序列图像进行配准,平均,去噪,生成参考帧的“干净”版本。
KPN使用了encoder-decoder结构,并有skip connection。其有 K 2 N K^2N K2N个输出通道,其可以被变形为 N N N K × K K\times K K×K大小线性滤波器。输出 Y ^ \hat{Y} Y^的每个像素值为
Y ^ p = 1 N ∑ i = 1 N ⟨ f i p , V p ( X i ) ⟩ \hat{Y}^p=\frac{1}{N}\sum_{i=1}^N\langle f^p_i,V^p(X_i)\rangle Y^p=N1i=1Nfip,Vp(Xi)

其中, V p ( X i ) V^p(X_i) Vp(Xi)是图像 X i X_i Xi像素 p p p K × K K\times K K×K邻域。 f i p f^p_i fip是其对应的核。在文章实验中, K = 5 , N = 8 K=5,N=8 K=5,N=8
除了RAW数据作为输入外,网络还使用逐像素估计的信号标准偏差作为输入。对噪声的逐像素估计为
σ p ^ = σ r 2 + σ s max ⁡ ( x p , 0 ) \hat{\sigma_p}=\sqrt{\sigma^2_r+\sigma_s\max(x_p,0)} σp^=σr2+σsmax(xp,0)

其中, x p x_p xp是图像序列中第一张图像像素 p p p的亮度。假设 σ r \sigma_r σr σ s \sigma_s σs是已知的。

基本损失函数

对输出做亮度归一化,并应用sRGB变换做gamma校正。然后定义损失函数为
l ( Y ^ , Y ∗ ) = λ 2 ∥ Γ ( Y ^ ) − Γ ( Y ∗ ) ∥ 2 2 + λ 1 ∥ ∇ Γ ( Y ^ ) − ∇ Γ ( Y ∗ ) ∥ 1 l(\hat{Y},Y^*)=\lambda_2\|\Gamma(\hat{Y})-\Gamma(Y^*)\|^2_2+\lambda_1\|\nabla\Gamma(\hat{Y})-\nabla\Gamma(Y^*)\|_1 l(Y^,Y)=λ2Γ(Y^)Γ(Y)22+λ1Γ(Y^)Γ(Y)1

其中, λ 1 \lambda_1 λ1 λ 2 \lambda_2 λ2是固定常数,文章中都设为1。 Γ \Gamma Γ是sRGB变换函数:
Γ ( X ) = { 12.92 X , X ≤ 0.0031308 ( 1 + a ) X 1 / 2.4 − a , X > 0.0031308 a = 0.055 \Gamma(X)=\begin{cases} 12.92X, & X\leq0.0031308 \\(1+a)X^1/2.4-a, & X>0.0031308 \end{cases} \\ a=0.055 Γ(X)={12.92X,(1+a)X1/2.4a,X0.0031308X>0.0031308a=0.055

不直接使用gamma校正函数 X γ X^\gamma Xγ是避免在 X X X趋于0时其梯度趋于无穷。

退火损失项

直接优化损失函数会收敛于局部最小值(只有参考帧核非零,其余核都变为0)。为了使得网络能充分利用其它帧的信息,文章使用退火策略,在初始时刻,使得输出的核能对图像序列中的每一帧分别配准和降噪,然后再利用各帧之间的信息做加权叠加。
应用核 f 1 , . . . , f N f_1,...,f_N f1,...,fN于图像帧 X 1 , . . . , X N X_1,...,X_N X1,...,XN,生成N帧滤波图像 f 1 ( X 1 ) , . . . , f N ( X N ) f_1(X_1),...,f_N(X_N) f1(X1),...,fN(XN),然后取平均得到输出 Y ^ \hat{Y} Y^。对每一帧中间结果加入损失项,并在训练过程中逐渐较小,最终的随时间变化的损失函数为
L ( X ; Y ∗ , t ) = l ( 1 N ∑ i = 1 N f i ( X i ) , Y ∗ ) + β α t ∑ i = 1 N l ( f i ( X i ) , Y ∗ ) \mathcal{L}(X;Y^*,t)=\mathcal{l}\left( \frac{1}{N}\sum^N_{i=1}f_i(X_i),Y^* \right)+\beta\alpha^t\sum^N_{i=1}\mathcal{l}(f_i(X_i),Y^*) L(X;Y,t)=l(N1i=1Nfi(Xi),Y)+βαti=1Nl(fi(Xi),Y)

其中, β \beta β 0 < α < 1 0<\alpha<1 0<α<1是超参数控制退火过程, t t t是迭代次数。随着迭代次数增加,第二项逐渐减弱直至消失。在文章的实验中, β = 100 \beta=100 β=100 α = 0.9998 \alpha=0.9998 α=0.9998,需要迭代40000次才能使得第二项消失。KPN会被预先训练对每一帧图像分别配准和降噪,然后再处理整个序列。

Experiments

实验参数

优化方法:ADam;学习率: 1 0 − 4 10^-4 104;Batch size:4;
每个图像序列大小: 129 × 128 × 8 129\times128\times8 129×128×8

比较方法

NLM、HDR+、VBM4D;
KPN(提出的方法)、
direct model(将KPN后接3个卷积层,直接输出去噪图像);

合成测试集结果

合成测试集来自于Canon 5D Mark II DSLR拍摄的73张线性RAW数据。这些图片在白天用低ISO拍摄,使得噪声最小化,并且刻意欠曝避免截止高亮区域。将这些RAW数据每 2 × 2 2\times2 2×2Bayer块平均为一个像素,并像合成训练集一样加入偏移量和噪声,从而生成灰度图像作为输入。
实验结果
实验结果1
direct model倾向于输出比KPN更加平滑的结果,故其在高噪声情况下会有更好的结果,见表1(各方法在线性合成测试集上的表现,网络没有在第四列噪声水平下训练)。
表1
表2(各方法在gamma校正后,并添加不同水平高斯白噪声的合成测试集上的表现,网络没有在第四列噪声水平下训练)
表2
尽管网络在只有平移偏移的训练集上训练,但训练后的网络对大场景移动也有鲁棒性。
图7
在实验过程中,一般经过前几次训练,输出的核就可以对 ± 2 \pm2 ±2像素的偏移有很好的矫正,故设定在3-5%迭代次数后,将退火项设为0.

泛化于更高的噪声水平

在文章实验中,将噪声水平估计作为输入对网络进行训练,可以有效将网络泛化于更高的噪声水平。从下图可以看出,在训练集的噪声范围内,有无噪声水平估计作为输入对网络性能影响不大;而在训练集噪声水平之外,有噪声水平估计作为输入的网络会更有鲁棒性。
噪声泛化
另外,输入的噪声水平估计也可以作为参数调整网络的去噪强度。从下图可以看出,当输入的噪声水平低于实际噪声水平时,网络对噪声去除比较保守,更倾向于利用参考帧的信息;当输入的噪声水平高于实际噪声水平时,网络更倾向于利用更宽的空间信息,以及多帧图像的信息,输出图像也更加平滑。
噪声水平估计

真实数据的测试结果

使用Nexus 6P在暗光场景下拍摄得到的原始数据,并只做简单的后处理如暗电流去除,抑制坏点像素,和整体配准。从结果可以看出,KPN仍能保持好的性能。
实际数据测试

代码地址:GitHub地址(好像只有网络训练的代码)

  • 6
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 15
    评论
评论 15
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值