Abstract
我们提出了一种基于深度学习的弱光图像增强方法。这个问题具有挑战性,因为难以同时处理各种因素,包括亮度、对比度、伪影和噪声。为了解决这一任务,我们提出了多分支低光增强网络(MBLLEN)。其关键思想是从不同的层次上提取丰富的特征,使我们可以通过多个子网应用增强,最终通过多分支融合生成输出图像。这样,就从不同的方面提高了图像质量。通过大量的实验,我们提出的MBLLEN被发现大大优于最先进的技术。此外,我们还表明,我们的方法可以直接扩展到处理低光视频。
源代码:MBLLEN:Low-lightImage/VideoEnhancementUsingCNNs源代码-深度学习文档类资源-CSDN下载
虽然已经取得了显著的进展,但仍有很大的改进空间。例如,现有的方法往往依赖于关于像素统计量或视觉机制的某些假设,然而,这可能不适用于某些真实的场景。其次,除了亮度/对比度优化外,其他因素也应更仔细地处理暗区域的伪影和弱光捕获引起的图像噪声。最后,开发有效的弱光视频增强技术需要更多的努力。
在本文中,我们利用最新的深度学习技术,提出了一种新的弱光图像增强方法。该方法的核心是所提出的全卷积神经网络,即多分支低光增强网络(MBLLEN)。MBLLEN由三种类型的模块组成,即特征提取模块(FEM)、增强模块(EM)和融合模块(FM)。其思想是学习到1)通过有限元法提取不同层次的丰富特征,2)通过EM分别增强多层次特征,3)通过FM进行多分支融合获得最终输出。这样,MBLLEN就能够从不同的方面提高图像质量,充分完成弱光增强任务。
总的来说,我们的贡献有三点。
1)提出了一种基于深度神经网络的低光图像增强新方法。它提高了客观和主观的图像质量。
2)我们的方法在抑制低光区域的图像噪声和伪影方面也很好。
3)我们的方法可以直接扩展到利用时间信息来处理低光视频。这些特性使我们的方法优于现有的方法,定量和定性的评估表明,我们的方法在很大程度上优于最先进的方法。
FEM.它是一个有10个卷积层的单流网络,每个层使用的内核大小为3×3,步幅为1和ReLU非线性,没有池化操作。对第一层的输入是低光彩色图像。每一层的输出既是下一层的输入,也是EM相应子网的输入。
EM. 它包含多个子网,其数等于FEM中的层数。子网的输入是FEM中某一层的输出,输出是与原始弱光图像大小相同的彩色图像。每个子网都有一个对称的结构,首先应用卷积,然后进行反卷积。第一个卷积层使用8个大小为3×3、步幅1和ReLU非线性的内核。然后,有3个卷积层和3个反卷积层,使用核大小为5×5、步幅1和ReLU非线性,核数分别为16、16、16、16、8和3。请注意,所有子网都是同时训练的,但单独训练,不共享任何学习的参数。
FM。它接受所有EM的输出,以产生最终增强的图像。我们将来自EM的所有输出连接到颜色通道维度中,并使用一个1×1的卷积核来合并它们。这等于具有可学习权重的加权和。
网络视频。我们的方法可以处理简单修改后的视频增强。1)让有限元对大小为3×3×3的16个核进行三维卷积,而不是二维卷积。第一层的输入是具有31帧的低光彩色视频。每一层输出的前三个维度被发送到EM,其余的维度被用作下一个卷积的输入。2)EM被修改以进行三维卷积。3)FM使用原始的弱光视频作为融合的额外输入。
其中,结构损失、环境损失和区域损失的详细信息如下。
结构损失。这种损失旨在提高输出图像的视觉质量。特别是,弱光捕获通常会导致结构扭曲,如模糊效果和伪影,这在视觉上是显著的,但MAE不能很好地处理。因此,我们引入结构损失来测量增强图像与地面真实值之间的差异,从而指导学习过程。特别是,我们使用著名的图像质量评估算法SSIM[39]和MS-SSIM[38]来构建我们的结构损失。最近的一种方法LLCNN[35]也采用了类似的策略。
我们使用一种简化形式的SSIM计算的一个像素p由:
上下文丢失。MSE和SSIM等指标只关注图像中的低级信息,同时也有必要使用某种高级信息来提高视觉质量。因此,我们参考了SRGAN[23]中的想法,并使用类似的策略来指导网络的训练。其基本思想是使用一个内容提取器。然后,如果增强图像和地面真实相似,它们从内容提取器的相应输出也应该是相似的。
一个合适的内容提取器可以是一个在一个大的数据集上训练的神经网络。由于VGG网络[33]的结构良好,行为良好,所以我们在我们的方法中选择了VGG网络作为内容提取器。特别地,我们根据预先训练过的VGG-19网络的ReLU激活层的输出来定义上下文损失。为了测量增强图像的表示和地面真实值之间的差异,我们计算它们的绝对差异之和。最后,对上下文丢失的定义如下:
其中,E和G为增强图像和地面真相,Wi、j、Hi、j和Ci,j描述了VGG网络中各自特征图的维数。另外,φi,j表示VGG-19网络中第i个块中第j个卷积层得到的特征图。
区域损失。上述损失函数将图像作为一个整体。然而,对于我们的弱光增强任务,我们需要更多地关注那些弱光区域。因此,我们提出了区域损失,它平衡了弱光和其他区域之间的增强程度。
为了做到这一点,我们首先提出了一个简单的策略来分离低光区域从图像的其他部分。通过初步实验,我们发现在所有像素中选择前40%最暗的像素可以很好地近似于弱光区域。人们也可以提出更复杂的暗区域选择方法,事实上在文献中有很多。最后,对区域损失的定义如下:
其中,EL和GL为增强图像和地面真实值的低光区域,EH和GH为图像的其余部分。在我们的例子中,我们建议使用wL=4和wH=1。
3.3实施细节
我们的实现是用Keras[7]和Tensorflflow[1]完成的。在Titan-XGPU上训练5000个小批次后,从帕斯卡VOC数据集[10]的16925张图像可以快速收敛。我们使用了24个大小为256×256×3的小批量补丁。输入的图像值应该被缩放为[0,1]。在设计上下文损失方面,我们测试了VGG-19的每一个卷积层。从第四个卷积块开始,增强效果略有降低。另一方面,随着层次越深,特征图的尺寸越减小,从而提高了计算效率。作为一种权衡,我们使用VGG的第三个块的第四个卷积层的输出作为上下文损失提取层。在实验中,使用ADAM优化器[20]进行训练,学习速率分别为α=0.002,β1=0.9,β2=0.999和ε=1008。我们还使用了学习率衰减策略,它在下一个时代之前将学习率降低到95%。
4实验评价
通过大量的实验,对该方法与现有方法进行了评价和比较。为了进行比较,我们使用了现有方法中已发布的代码。总的来说,我们已经做了以下四组主要的实验。1)我们将我们的方法与一些现有的方法进行了比较,包括那些最新的和最具代表性的、关于弱光图像增强任务的方法。2)我们展示了另一组在泊松噪声存在下的弱光图像增强任务的比较。3)我们使用真实世界的低光图像来显示实验结果。4)我们进行了进一步的弱光视频增强实验。
4.1数据集和指标
捕获真实世界的低光图像与地面真相是困难的。因此,在之前的研究[28]的基础上,我们基于帕斯卡尔VOC图像数据集[10],通过合成生成了大量的低光图像。
低光图像合成。低光图像与普通图像的区别在于,它有两个最突出的特征:低亮度和噪声的存在。对于前一个特征,我们对普通图像的每个通道进行随机伽马调整,以产生与[28]相似的低光图像。该过程可以表示为Iout=A×Iγ,其中A是由图像中最大像素强度决定的常数,γ服从均匀分布U(2,3.5)。至于噪声,虽然以前的许多方法都忽略了它,但我们仍然考虑到它。特别地,我们在弱光图像中加入峰值为=为200的泊松噪声。最后,我们在VOC数据集中选择16925张图像来合成训练集,56张图像用于验证集,144张图像用于测试集。
低光视频合成。我们选择了e-Lab视频数据集(e-VDS)[8]来合成弱光视频。我们将原始视频剪辑成视频剪辑(31×255×255×3),构建一个约20000个样本的数据集,其中95%构成训练集,其余用于测试。
性能指标。为了从不同的方面和更公平的方式评估不同方法的性能,我们使用了各种不同的指标,包括PSNR,SSIM[39],平均亮度(AB)[6],视觉信息保真度(VIF)[32],轻顺序误差(LOE),如[41]和TMQI[40]的建议。请注意,在下表中,红色、绿色和蓝色分别表示最佳、次优和第三优的结果。
我们使用合成数据集进行实验。我们将我们的方法与其他10种最新方法的结果进行了比较,如表1所示。我们的方法在所有情况下都优于所有其他方法,并且远远领先于第二好(绿色)和第三好(蓝色)。
具有代表性的结果如图4所示。通过检查细节,很明显,我们的方法获得了更好的视觉效果,包括良好的亮度/对比度和更少的伪影。我们强烈鼓励它放大来比较细节。
为了强调我们在除亮度恢复之外的细节恢复方面的优势,我们根据地面真相对所有方法的图像亮度进行了调整,使它们具有精确正确的最大值和最小值。然后,我们比较了表2中的结果。由于空间限制,我们只从表1中选择这些最佳方法。结果表明,该方法仍然在很大程度上优于其他所有方法。
我们在带有附加泊松噪声的弱光图像上测试了我们的方法。为了进行比较,我们从表1中选择了最佳的比较方法,并将它们与IVST[3]去噪方法一起使用,得到最终的比较结果。在最后的实验中,在原始输出(左数字)和比例输出(右数字)的情况下,使用了各种质量指标进行评估,如表3所示。
在表3中,我们的方法几乎在所有质量指标下获得了所有的最佳结果。它排名第二的唯一情况是在AB指标下的亮度尺度结果上。但是,请注意,对于亮度尺度,我们需要提供所有的方法与地面真实亮度,这些结果只是为了参考,而不是一个公平的比较。图5给出了可视化演示。
我们的MBLLEN、其视频版本(mbllven)和其他三种方法的比较如表4所示。我们还引入了AB(var)度量来测量增强视频和地面真实值之间的平均亮度方差的差异。这个指标反映了视频是否有意外的亮度变化或闪烁,并且所提出的mbllven在保持帧间一致性方面取得了最好的性能。增强后的视频在补充文件中提供,以便进行直观的比较。