Learning to Enhance Low-Light Image via Zero-Reference Deep Curve Estimation阅读札记

Learning to Enhance Low-Light Image via
Zero-Reference Deep Curve Estimation阅读札记

  论文发表于2021年的PAMI,为Zero-DCE的升级版,简称为Zero-DCE++

1 Abstract

  本文提出零参考深度曲线估计(Zero-DCE),用于弱光图像增强。
  本文方法训练一个轻量级的深度网络DCE-Net,以弱光图像为输入,以高阶曲线为输出,然后利用这些曲线对输入图像进行像素级调整,以获得增强的图像。
  本文在Zero-DCE的基础上提出了加速和轻型版本称为Zero-DCE++。
贡献:
  1)是第一个不依赖于成对和非成对训练数据的弱光增强网络,从而避免了过拟合的风险。
  2)设计了一个特定于图像的曲线,它能够通过迭代应用自身来逼近像素级和高阶曲线。这样的图像特定曲线可以在很宽的动态范围内有效地进行映射。
  3)通过间接评估增强质量的特定于任务的非参考损失函数展示了在没有参考图像的情况下训练深度图像增强模型的潜力。
在这里插入图片描述

2 Method

算法框架图

在这里插入图片描述
  图中给出Zero-DCE的框架。首先深度曲线估计网络(DCE-Net)估计给定输入图像的一组最佳拟合的光增强曲线(LE-curve),然后该框架通过迭代应用曲线来映射输入图像的RGB通道的所有像素,以获得最终的增强图像。

2.1 光增强曲线(LE-curve)

设计目标:
  1)增强图像的每个像素值应在[0,1]的归一化范围内,以避免溢出截断引起的信息丢失;
  2)曲线应保持单调,以保持相邻像素的差异(对比度);
  3)在梯度反向传播过程中,该曲线的形式应尽可能简单且可微。
根据目标设计曲线为:
在这里插入图片描述
   x x x:像素坐标
   I ( x ) I(x) I(x):输入图像
   L E ( I ( x ) ; α ) LE(I(x);α) LE(I(x);α):增强图像
   α α α:属于 [ − 1 , 1 ] [-1,1] [1,1],为可训练曲线参数,可调整LE曲线的幅度,控制曝光水平。
  算法框架图(b)为不同调整参数 α α α下的LE曲线。LE曲线能够增加或减少输入图像的动态范围,这种能力有利于增强弱光区域,也有助于消除过度曝光的伪影。
  迭代应用LE曲线得到高阶曲线
在这里插入图片描述
   n n n:控制曲率的迭代次数。(本文 n = 8 n=8 n=8
  算法框架图(c)为不同 α α α n n n的高阶曲线,其调节能力比图(b)的曲线更强(曲率更大)。
  为了实现局部调整,将高阶曲线的单一参数 α α α改为像素级参数得到像素级曲线,即给定输入图像的每个像素都有一条与最佳拟合 α α α相对应的曲线来调整其动态范围。因此曲线公式重新定义为:
在这里插入图片描述
   A A A:与给定图像相同大小的参数映射。
  将LE曲线分别应用于RGB三个通道,可以更好的保持固有颜色,降低过饱和度的风险。下图展示了不同颜色通道的最佳拟合参数图具有相似的调整趋势,但值不同,表明弱光图像的三个通道之间的相关性和差异。
在这里插入图片描述

2.2 DCE-Net

  DCE-Net网络结构图如下图所示,输入是一幅弱光图像,输出是一组相应的高阶曲线的像素级曲线参数映射。本文采用七个卷积层对称连接的CNN,每层包含32个大小为3×3和步长为1的卷积核,之后是ReLU激活函数。最后一个卷积层后面是Tanh激活函数,它为8次迭代生成24个参数映射( n = 8 n = 8 n=8),其中每次迭代为3个通道(即RGB通道)生成3个曲线参数图。
在这里插入图片描述

2.3 无参考损失函数(Loss Functions)

  本文提出一组可微的无参考损失函数,实现DCE-Net的零参考学习。
∙ ∙ 空间一致性的损失( L s p a L_{spa} Lspa
   L s p a L_{spa} Lspa通过保留输入图像与其增强版本相邻区域的差异来鼓励增强图像的空间一致性
在这里插入图片描述
   K K K:局部区域个数
   Y Y Y:增强图像
   I I I:输入图像中局部区域的平均强度值(本文局部区域的大小设置为4×4
   Ω ( i ) Ω(i) Ω(i):以区域i为中心的四个相邻区域(上、下、左、右)。
  下图说明了计算空间一致性损失的过程:
在这里插入图片描述

∙ ∙ 曝光控制损失( L e x p L_{exp} Lexp
   L e x p L_{exp} Lexp来控制曝光水平。曝光控制损失衡量的是局部区域的平均强度值与良好曝光度 E E E之间的距离,(本文 E = 0.6 E=0.6 E=0.6
在这里插入图片描述
   M M M:大小为16×16的不重叠局部区域个数
   Y Y Y:增强图像中某个局部区域的平均强度值。
∙ ∙ 颜色恒常性的损失( L c o l L_{col} Lcol
   L c o l L_{col} Lcol来校正增强后图像中可能出现的颜色偏差,并建立三个调整后通道之间的关系
在这里插入图片描述
   J p J^p Jp:增强后图像中 p p p通道的平均强度值
   ( p , q ) (p,q) (p,q):一对颜色通道。
∙ ∙ 照明平滑的损失( L t v A L_{tvA} LtvA
   L t v A L_{tvA} LtvA保持相邻像素之间的单调关系
在这里插入图片描述
   N N N:迭代次数
   ∇ x ∇_x x ∇ y ∇_y y:分别为水平和垂直梯度。
总损失( L t o t a l L_{total} Ltotal
在这里插入图片描述
   W c o l W_{col} Wcol W t v A W_{tvA} WtvA:损失的权重。(本文 W c o l = 0.5 W_{col}=0.5 Wcol=0.5 W t v A = 20 W_{tvA}=20 WtvA=20)

3 Zero-DCE++

  提出一种称为Zero-DCE++的加速轻量化版本,以降低计算成本和获得更快的推理速度。
  (1)通过使用深度可分离卷积替换卷积层来重新设计DEC-Net,以减少网络参数。每个深度可分离卷积层由一个深度卷积和一个点卷积组成,深度卷积的核大小为3×3和步长1,点卷积的核大小为1×1和步长1。
  (2)如下图所示,不同迭代阶段的估计曲线参数在大多数情况下是相似的
在这里插入图片描述
  以上现象表明曲线参数图可以在不同的迭代阶段重用以处理大多数情况,故重新构造曲线估计,只估计3个曲线参数映射,然后在不同的迭代阶段重用它们。因此,将等式 L E n ( x ) = L E n − 1 ( x ) + A n ( x ) L E n − 1 ( x ) ( 1 − L E n − 1 ( x ) ) LE_n(x) = LE_{n-1}(x)+A_n(x) LE_{n-1}(x)(1- LE_{n-1}(x)) LEn(x)=LEn1(x)+An(x)LEn1(x)(1LEn1(x))重新表示为
在这里插入图片描述
  3)Zero-DCE对输入图像的大小不敏感,所以可使用下采样的输入图像作为DCE-Net的输入(本文将输入样本减少了12倍),然后将估计的曲线参数图上采样回原始分辨率以进行图像增强(低分辨率输入可以显着降低计算成本)。
  ⭐这些修改为Zero-DCE++提供了具有微型网络(10K可训练参数,0.115G FLOPs,用于大小为1200×900×3的图像)、实时推理速度(在单个 GPU/CPU 上为1000/11 FPS用于大小为1200×900×3的图像)的优势,和快速训练(20分钟)。

4 Experiment

4.1 消融实验

4.1.1 每项损失的贡献

  下图展示了各种损失组合训练的Zero-DCE结果:
在这里插入图片描述
  如图(c)所示,没有空间一致性损失的 L s p a L_{spa} Lspa,增强结果的对比度(云朵区域)相对低于完整结果。
  如图(d)所示,没有曝光控制损耗 L e x p L_{exp} Lexp无法恢复弱光区域。
  如图(e)所示,没有颜色恒定性损失 L c o l L_{col} Lcol时,会出现严重的色差。
  如图( f)所示,没有光照平滑度损失 L t v A L_{tvA} LtvA会阻碍相邻区域之间的相关性,从而导致明显的伪影。

4.1.2 三通道调节的优势

  下图展示了分别使用RGB、CIE Lab和YCbCr颜色空间训练的Zero-DCE结果(分别将CIE Lab的L分量和YCbCr的Y分量作为DCE-Net的输入,生成的一组曲线参数图分别调整Lab和YCbCr):
在这里插入图片描述
  如图(c)和(d)所示,在CIE Lab和YCbCr颜色空间中调整的结果存在明显的颜色偏差(墙壁颜色)和过饱和(灯笼区域)。

4.1.3 参数设置的影响

  Zero-DCE中参数包括DCE-Net的深度(卷积层个数) l l l 宽度(每层特征的个数) f f f 以及迭代次数 n n n,不同参数训练结果如下图所示:
在这里插入图片描述
  对比图(b)和(e),7个卷积层比3个卷积层处理效果更好
  对比图(c)和(e),特征个数为32比特征个数为7的处理效果更好
  对比图(d)(e)和(f),可以看出一次迭代处理的效果不好,整体增强效果不明显。随着迭代次数的增加,增强效果越好,但8次迭代和16次迭代效果差别不大,故选择 Z e r o − D C E l 7 − f 32 − n 8 Zero-DCE_{l7-f32-n8} ZeroDCEl7f32n8作为最终模型
  定量结果如下表所示:
在这里插入图片描述

4.1.4 训练数据的影响

  使用不同数据训练,结果如下图所示:
在这里插入图片描述
  如图(c)和(d)所示,如果训练数据中只有低光图像,Zero-DCE倾向于过度增强光照良好的区域(杯子)( Z e r o − D C E L o w Zero-DCE_{Low} ZeroDCELow表示只使用少量低光图像训练, Z e r o − D C E L a r g e L Zero-DCE_{LargeL} ZeroDCELargeL表示只使用大量低光图像训练)。
  如图(e)所示,当使用更多的多曝光训练数据( Z e r o − D C E L a r g e L H Zero-DCE_{LargeLH} ZeroDCELargeLH)时,Zero-DCE可以更好地恢复暗区域(玫瑰)。

4.1.5 良好曝光水平 E E E的影响

  使用不同的良好曝光水平E(0.4、0.5、0.6、0.7)训练网络,结果如下图所示:
在这里插入图片描述
  定量结果如下表所示:
在这里插入图片描述
  如图所示, Z e r o − D C E E 0.5 Zero-DCE_{E0.5} ZeroDCEE0.5 Z e r o − D C E E 0.6 Zero-DCE_{E0.6} ZeroDCEE0.6获得视觉上令人愉悦的亮度;如表所示, Z e r o − D C E E 0.6 Zero-DCE_{E0.6} ZeroDCEE0.6取得了最好的量化分数,故选择 Z e r o − D C E E 0.6 Zero-DCE_{E0.6} ZeroDCEE0.6作为最终模型

4.1.6 Zero-DCE与Zero-DCE++

  如第3节所述,Zero-DCE++首先用深度分离卷积替换DCE-Net的卷积层,然后将不同大小的输入馈送到修改后的框架,最后在8次迭代中重用曲线参数映射。
  (1)增强性能和输入大小之间的统计关系如下表所示:
在这里插入图片描述
  不同输入大小最终生成的结果如下图所示:
在这里插入图片描述
  综合图表结果可知,12×↓的结果达到了最高的平均峰值信噪比值,故选择 12 × ↓ 12×↓ 12×作为Zero-DCE++最终模型
  (2)消融模型包括具有深度可分离卷积的Zero-DCE(表示为DSconv)和在不同迭代阶段共享曲线参数图的Zero-DCE(表示为 Pshared)。Zero-DCE的输入是原始分辨率图像,而在DSconv和Pshared中默认使用12次下采样操作。消融模型的定量比较结果如下表所示:
在这里插入图片描述
  如表所示,引入DSconv和Pshared会略微降低峰值信噪比值,但显著减少了可训练参数和FLOPs。

4.2 基准评估

4.2.1 定性比较

在这里插入图片描述
在这里插入图片描述

4.2.2 定量比较

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 2
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值