目录
A. Dataset Generation and Network Training
C. Experiments on Spatially Variant AWGN Removal
D. Experiments on Noise Level Sensitivity
E. Experiments on Real Noisy Images
一、摘要
已存在的模型存在如下缺点:不同的噪声水平需要不同的模型,不能用来处理空间噪声,缺乏灵活性。
为了解决这些问题,我们提出了一种快速、灵活的卷积神经网络,即FFDNet,它以一个可调的噪声水平图作为输入。提出的
FFDNet对下采样的子图像进行处理,在推理速度和去噪性能之间取得了良好的平衡。与现有的有区别的去噪器相比,
FFDNet具有几个令人满意的特性,包括
(i)处理不同噪音水平的能力
(ii)通过指定非均匀的噪声水平图来消除空间变异噪声的能力;
(iii)即使在CPU上也比基准BM3D更快的速度,同时不牺牲去噪性能。
To overcome the drawbacks of existing CNN based denoising methods, we present a fast and flexible denoising convolutional neural network (FFDNet). Specifically, our FFDNet is formulated as x = F(y; M; Θ), where M is a noise level
map. In the DnCNN model x = F(y; Θσ), the parameters Θσ vary with the change of noise level σ, while in the FFDNet
model, the noise level map is modeled as an input and the model parameters Θ are invariant to noise level. Thus, FFDNet
provides a flexible way to handle different noise levels with a single network.
The main contribution of our work is summarized as follows:
1、提出了一种快速、灵活的图像去噪网络FFDNet。通过一个可调的噪声水平图作为输入,一个FFDNet能够处理不同水平的噪
声,以及空间变化的噪声。
2、我们强调确保噪音声级图在控制降噪和细节保护之间的平衡方面发挥作用的重要性。
3、FFDNet在AWGN破坏的合成噪声图像和真实世界噪声图像上都显示了令人感兴趣的结果,展示它在实际图像去噪方面的力。
We present a single discriminative CNN model, namely FFDNet, to achieve the following three objectives:
1、速度快:降噪器在不牺牲降噪性能的前提下,具有很高的降噪效率。
2、灵活性:去噪器能够处理不同噪声水平的图像,甚至空间变化的噪声。
3、稳健性:降噪器在控制降噪和细节保存之间的权衡时不应引入视觉假象。
二、网络结构
在这项工作中,我们采用可调噪声水平图M作为输入,使去噪模型灵活地达到噪声水平。为了提高降噪器的效率,引入了可逆的下采样操作器,以将W*H*C大小的输入图像重新整形为尺寸为W/2*H/2*4C的四个下采样子图像。这里C是通道数,即灰度图像的C=1和彩色图像的C=3。为了使噪声水平图能够通过不引入视觉伪像来稳健地控制降噪和细节保持之间的权衡,我们对卷积滤波器采用正交初始化方法。
inputs: a tensor ~y of size W2 × H2 × (4C + 1) 对于具有噪声水平σ的空间不变AWGN,M是均匀映射,其中所有元素都是σ。
the first convolution layer:“Conv+ReLU”
the middle layers:“Conv+BN+ReLU”
the last convolution layer:“Conv”
零填充用于在每次卷积后保持特征映射的大小不变。在最后一个卷积层之后,应用放大操作作为在输入级中应用的下采样操作符的反向运算符,以产生大小为W*H*C的估计清洁图像x。
噪声水平图
三、实验
A. Dataset Generation and Network Training
1、训练数据集
400 BSD images
400 images selected from the validation set of ImageNet
the 4,744 images from the Waterloo Exploration Database
In each epoch, we ran