图像增强领域大突破!以 1.66ms 的速度处理 4K 图像,港理工提出图像自适应的 3DLUT

file

paper: https://www4.comp.polyu.edu.hk/~cslzhang/paper/PAMI_LUT.pdf

code: https://github.com/HuiZeng/Image-Adaptive-3DLUT(即将开源)

该文是香港理工大学张磊老师及其学生在图像增强领域的又一颠覆性成果。它将深度学习技术与传统3DLUT图像增强技术详解,得到了一种更灵活、更高效的图像增强技术。所提方法能够以1.66ms的速度对4K分辨率图像进行增强(硬件平台:Titan RTX GPU)。

Abstract

最近几年基于学习的方法已成为图像增强(增强图像的色调、对比度等)的主流方案,然而这些图像增强方法或者产生不好的效果或者需要大量的计算量以及内存占用,严重影响了这些方法在高分辨率图像方面的实际应用(比如12M像素)。

该文提出了一种图像自适应的3D查找表(3D LUT)方法用于图像增强,在具有超快速度的同时具有鲁棒的增强效果。3DLUT是传统图像编辑领域常用方案,但这些查找表往往需要人工调节并固化。该文首次提出采用成对/不成对学习的方式从标注数据集中学习3DLUT。更重要的是,所学习到的3DLUT具有图像自适应特性,可以灵活的进行图像增强。所提方法采用端到端的方式同时学习3DLUT以及一个小网络,小网络用于根据输入图像学习查找表的融合权值,将融合后的3DLUT作用于输入图像即可得到期望的输出。所提方法仅仅包含不到600K参数,能够以不超过2ms的速度处理4K分辨率图像(硬件平台:Titan RTX GPU)。在具有超快的推理速度同时,所提方法同样以极大的优势(PSNR,SSIM以及颜色差异度量指标)超越其他图像增强方法。

该文的贡献主要包含以下三点:

  • 首个采用深度学习方法学习3DLUT并用于自动图像增强的方案,更重要的是,所提方法学习到的3DLUT具有图像自适应性,可以更灵活的进行图像增强;
  • 所提方法仅有不超过600K参数量,且能够以不超过2ms的速度处理4K分辨率图像(GPU);
  • 在两个公开数据集上以极大优势超越其他SOTA图像增强方案。

Method

file

上图给出了本文所提出方案的框架图,它包含多个基准3DLUT与一个小的CNN网络。基准3DLUT可以确保输入到输出的颜色变换可以被更好的包含,而CNN则用于学习3DLUT的融合权值并将多个3DLUT融合为一个新的3DLUT,最后所得3DLUT用于图像变换。

3DLUT and trilinear interpolation

3DLUT是一种经典且有效并被广泛应用的图像增强技术,下图给出了3DLUT的示意图。3DLUT定义了一个包含 M 3 M^3 M3个元素 { V ( i , j , k ) } i , j , k = 0 , ⋯   , M − 1 \{V_{(i,j,k)}\}_{i,j,k=0,\cdots,M-1} {V(i,j,k)}i,j,k=0,,M1的晶格(注:M表示每个颜色通道的采样数,实际应用中一般为33)。每个 V i , j , k V_{i,j,k} Vi,j,k定义了输入RGB颜色 { r i , j , k I , g i , j , k I , b i , j , k I } \{r_{i,j,k}^I, g_{i,j,k}^I, b_{i,j,k}^I\} {ri,j,kI,gi,j,kI,bi,j,kI}及对应的输出RGB颜色 { r i , j , k O , g i , j , k O , b i , j , k O } \{r_{i,j,k}^O, g_{i,j,k}^O, b_{i,j,k}^O\} {ri,j,kO,gi,j,kO,bi,j,kO},而变换的精度则由M控制(默认33)。

file

给定M以及索引 RGB颜色 { r i , j , k I , g _ i , j , k I , b i , j , k I } \{r_{i,j,k}^I, g\_{i,j,k}^I, b_{i,j,k}^I\} {ri,j,kI,g_i,j,kI,bi,j,kI}可以通过均匀离散RGB颜色空间得到。不同的3DLUT具有不同的输出RGB颜色 { r i , j , k O , g i , j , k O , b i , j , k O } \{r_{i,j,k}^O, g_{i,j,k}^O, b_{i,j,k}^O\} {ri,j,kO,gi,j,kO,bi,j,kO},而这在所提方法中是可学习的参数。当M=33时,每个3DLUT包含108K参数量。

基于3DLUT的颜色变换可以通过两个操作达成:lookuptrilinear interpolation。给定输入RGB颜色 { r i , j , k I , g i , j , k I , b i , j , k I } \{r_{i,j,k}^I, g_{i,j,k}^I, b_{i,j,k}^I\} {ri,j,kI,gi,j,kI,bi,j,kI}lookup操作可以通过如下公式进行:
x = r x , y , z I s , y = g x , y , z I s , z = b x , y , z I s x = \frac{r^I_{x,y,z}}{s}, y=\frac{g^I_{x,y,z}}{s}, z=\frac{b^I_{x,y,z}}{s} x=srx,y,zI,y=sgx,y,zI,z=sbx,y,zI
其中 s = C m a x M s=\frac{C_{max}}{M} s=MCmax,而 C m a x C_{max} Cmax表示颜色值。在完成输入RGB颜色定位后,它的8个最近邻元素将被用于trilinear interpolation并得到输出RGB。trilinear interpolation可以描述如下:假设 i = ⌊ x ⌋ , j = ⌊ y ⌋ , k = ⌊ z ⌋ i=\lfloor x \rfloor, j = \lfloor y\rfloor, k=\lfloor z\rfloor i=x,j=y,k=z d x = r x , y , z I − r i , j , k I s , d y = g x , y , z I − g i , j , k I s , d z = b x , y , z I − b I _ i , j , k s d_x = \frac{r^I_{x,y,z}-r^I_{i,j,k}}{s}, d_y = \frac{g^I_{x,y,z}-g^I_{i,j,k}}{s}, d_z = \frac{b^I_{x,y,z}-b^I\_{i,j,k}}{s} dx=srx,y,zIri,j,kI,dy=sgx,y,zIgi,j,kI,dz=sbx,y,zIbI_i,j,k,那么三次插值公式如下:

c _ ( x , y , z ) O = ( 1 − d x ) ( 1 − d y ) ( 1 − d z ) c ( i , j , k ) O + d x ( 1 − d _ y ) ( 1 − d z ) c ( i + 1 , j , k ) O + ( 1 − d x ) d y ( 1 − d z ) c ( i , j + 1 , k ) O + ( 1 − d x ) ( 1 − d y ) d z c ( i , j , k + 1 ) O + d x d y ( 1 − d z ) c ( i + 1 , j + 1 , k ) O + ( 1 − d _ x ) d y d z c ( i , j + 1 , k + 1 ) O + d x ( 1 − d y ) d z c ( i + 1 , j , k + 1 ) O + d x d y d z c ( i + 1 , j + 1 , k + 1 ) O \begin{aligned} c\_{(x, y, z)}^{O} &=\left(1-d_{x}\right)\left(1-d_{y}\right)\left(1-d_{z}\right) c_{(i, j, k)}^{O}+d_{x}\left(1-d\_{y}\right)\left(1-d_{z}\right) c_{(i+1, j, k)}^{O} \\ &+\left(1-d_{x}\right) d_{y}\left(1-d_{z}\right) c_{(i, j+1, k)}^{O}+\left(1-d_{x}\right)\left(1-d_{y}\right) d_{z} c_{(i, j, k+1)}^{O} \\ &+d_{x} d_{y}\left(1-d_{z}\right) c_{(i+1, j+1, k)}^{O}+\left(1-d\_{x}\right) d_{y} d_{z} c_{(i, j+1, k+1)}^{O} \\ &+d_{x}\left(1-d_{y}\right) d_{z} c_{(i+1, j, k+1)}^{O}+d_{x} d_{y} d_{z} c_{(i+1, j+1, k+1)}^{O} \end{aligned} c_(x,y,z)O=(1dx)(1dy)(1dz)c(i,j,k)O+dx(1d_y)(1dz)c(i+1,j,k)O+(1dx)dy(1dz)c(i,j+1,k)O+(1dx)(1dy)dzc(i,j,k+1)O+dxdy(1dz)c(i+1,j+1,k)O+(1d_x)dydzc(i,j+1,k+1)O+dx(1dy)dzc(i+1,j,k+1)O+dxdydzc(i+1,j+1,k+1)O

其中 c ∈ { r , g , b } c\in \{r,g,b\} c{r,g,b}。上述三次插值过程是可微的,可以轻易的推导出 c O _ i , j , k c^O\_{i,j,k} cO_i,j,k的梯度。由于每个输入的三次插值结果完全独立,故而可以采用GPU进行并行加速。

Learning image-adaptive 3D LUTs

传统的基于3DLUT的图像增强方法具有两个主要局限:(1)3DLUT大多人工设计,需要设计人员具有丰富经验,同时消耗大量时间;(2)一个3DLUT仅能处理一种固定的变换,难以适应全场景的变换。尽管现有相机、图像编辑工具中提供了多个LUTs集合供用户手动选择以大臣个不同的增强效果,但是这种交互方式不够灵活。

为解决上述第一个局限,作者提出采用数据驱动方法生成3DLUT;为解决上述第二个局限,模型应当具有内容自适应特性,因此作者提出学习图像自适应的3DLUT。

一个很自然的想法是通过场景分类的方式选择不同的3DLUT,这也是诸多相机、图像编辑工具常用方案。然而这种硬决策方案具有这样几个缺陷:(1) 它难以将多个可能场景正确的划分到预定义类别中,因为不同类别具有不同的3DLUT;(2)需要大量的3DLUT以尽可能的覆盖全场景;(3) 分类器的训练独立于3DLUT,导致组合方案并非最优。如果场景分类错误,那么所选择的3DLUT大概率生成非常差的结果。

在该文中,作者采用一种更高效的方式学习图像自适应的3DLUT:同时学习N个3DLUT与一个小CNN模型(用于预测3DLUT的融合权值)。对于输入图像,其最终的增强输出可以描述如下:

q = ∑ n = 1 N w n ϕ n ( x ) q = \sum_{n=1}^N w_n \phi_n (x) q=n=1Nwnϕn(x)

{ w n } n = 1 , ⋯   , N = f ( x ) \{w_n\}_{n=1, \cdots, N}=f(x) {wn}n=1,,N=f(x)表示通过CNN模型预测的内容自适应权值。所提方法仅仅需要几个3DLUT(N=3)进行图像变换,同时采用软加权策略以获得图像内容自适应的变换效果。更进一步,考虑到像素变换的独立性,上述操作可以进一步简化如下:

q = ( ∑ n = 1 N w n ϕ n ) ( x ) q = (\sum_{n=1}^N w_n \phi_n)(x) q=(n=1Nwnϕn)(x)

也就是时候,可以先进行3DLUT融合,再进行图像变换。这种处理方式进一步提升的所提方法的推理速度。下表给出了所提方法中CNN模型的参数配置,它包含5个卷积(后接LeakyReLU、IN)、一个dropout以及一个全连接层。整个CNN模型包含269参数量(N=3)。

file

Learning Criteria

接下来就要介绍了优化的目标函数了,目标函数定义如下:
m i n f , ϕ n L ( q , y ) min_{f,\phi_n} \mathcal{L}(q,y) minf,ϕnL(q,y)
其中 f , ϕ n f, \phi_n f,ϕn表示CNN模型与3DLUT, L \mathcal{L} L表示某些损失函数与正则项。

如前所述,所提方法可以采用成对数据进行训练,也可以采用非成对数据进行训练。我们先来看一下成对训练的损失函数,这个就比较简单的常规的损失函数即可,比如L1、MSE等。在这里作者选用了简单的MSE损失函数,定义如下
L = 1 T ∑ t = 1 T ∣ q t − y t ∣ 2 \mathcal{L} = \frac{1}{T} \sum_{t=1}^{T} |q_t -y_t|^2 L=T1t=1Tqtyt2
接下来,我们再看一下非成对数据的损失函数。这里借鉴的是GAN的思想进行非成对数据的训练,前述的3DLUT以及CNN可以视作生成器,只需要再引入一个判别器即可。此时生成器通过如下损失进行训练:

L G = E x [ − D ( G ( x ) ) ] + λ 1 E x [ ∥ G ( x ) − x ∥ 2 ] \mathcal{L}_{G}=\underset{x}{\mathbb{E}}[-D(G(x))]+\lambda_{1} \underset{x}{\mathbb{E}}\left[\|G(x)-x\|^{2}\right] LG=xE[D(G(x))]+λ1xE[G(x)x2]

其中 λ 1 = 1000 \lambda_1 = 1000 λ1=1000。判别器的损失函数定义如下:

L D = E x [ D ( G ( x ) ) ] − E y [ D ( y ) ] + λ 2 E y ^ [ ( ∥ ∇ y ^ D ( y ^ ) ∥ 2 − 1 ) 2 ] \mathcal{L}_{D}=\underset{x}{\mathbb{E}}[D(G(x))]-\underset{y}{\mathbb{E}}[D(y)]+\lambda_{2} \underset{\widehat{y}}{\mathbb{E}}\left[\left(\|\nabla \widehat{y} D(\widehat{y})\|_{2}-1\right)^{2}\right] LD=xE[D(G(x))]yE[D(y)]+λ2y E[(y D(y )21)2]

其中, λ 2 = 10 \lambda_2=10 λ2=10,前两项为标准的判别损失,最后一项为梯度惩罚项用于稳定训练。那么总的损失函数则定义为:

L g a n = L G + L D \mathcal{L}_{gan} = \mathcal{L}_G + \mathcal{L}_D Lgan=LG+LD

Regularization

我们可以采用前述损失以及SGD/Adam优化器进行训练3DLUT以及CNN。然而得到的3DLUT具有非平滑现象,见下图a。这种局部陡峭现象会导致变换后图像的伪影问题,为使得所学习的3DLUT具有更好的稳定性好鲁棒性,作者引入了两种正则项。

file

  • Smooth Regularization。为了稳定的将输入RGB变换到期望的颜色空间,而不引入伪影,3DLUT的输出RGB应当具有局部平滑性。全变差Total Variation, TV是图像复原领域经典的平滑正则化技术,作者将其引入到3DLUT,此时TV正则定义如下:

R T V = ∑ c ∈ { r , g , b } ∑ i , j , k ( ∥ c ( i + 1 , j , k ) O − c ( i , j , k ) O ∥ 2 + ∥ c ( i , j + 1 , k ) O − c ( i , j , k ) O ∥ 2 + ∥ c ( i , j , k + 1 ) O − c ( i , j , k ) O ∥ 2 ) \begin{aligned} \mathcal{R}_{T V} &=\sum_{c \in\{r, g, b\}} \sum_{i, j, k}\left(\left\|c_{(i+1, j, k)}^{O}-c_{(i, j, k)}^{O}\right\|^{2}+\| c_{(i, j+1, k)}^{O}\right.\\ &\left.-c_{(i, j, k)}^{O}\left\|^{2}+\right\| c_{(i, j, k+1)}^{O}-c_{(i, j, k)}^{O} \|^{2}\right) \end{aligned} RTV=c{r,g,b}i,j,k(c(i+1,j,k)Oc(i,j,k)O2+c(i,j+1,k)Oc(i,j,k)O2+c(i,j,k+1)Oc(i,j,k)O2)

除了3DLUT应具有平滑性外,CNN预测的内容自适应权值同样非常重要,作者也为其引入了 L _ 2 L\_2 L_2正则以提升所得3DLUT的平滑性。总的平滑正则项描述如下:

R s = R T V + ∑ n ∥ w n ∥ 2 \mathcal{R}_{s}=\mathcal{R}_{T V}+\sum_{n}\left\|w_{n}\right\|^{2} Rs=RTV+nwn2

  • Monotonicity regularization。除了平滑性外,单调性也适合3DLUT应当具有的一个属性。为此作者设计了如下的单调正则项:
    R m = ∑ c ∈ { r , g , b } ∑ _ i , j , k [ g ( c ( i , j , k ) O − c ( i + 1 , j , k ) O ) + g ( c _ ( i , j , k ) O − c ( i , j + 1 , k ) O ) + g ( c ( i , j , k ) O − c ( i , j , k + 1 ) O ) ] \begin{aligned} \mathcal{R}_{m} &=\sum_{c \in\{r, g, b\}} \sum\_{i, j, k}\left[g\left(c_{(i, j, k)}^{O}-c_{(i+1, j, k)}^{O}\right)+g\left(c\_{(i, j, k)}^{O}\right.\right.\\ &\left.\left.-c_{(i, j+1, k)}^{O}\right)+g\left(c_{(i, j, k)}^{O}-c_{(i, j, k+1)}^{O}\right)\right] \end{aligned} Rm=c{r,g,b}_i,j,k[g(c(i,j,k)Oc(i+1,j,k)O)+g(c_(i,j,k)Oc(i,j+1,k)O)+g(c(i,j,k)Oc(i,j,k+1)O)]

其中 g ( ⋅ ) g(\cdot) g()表示标准ReLU操作。

Final training losses and implementation

通过集成前述两个正则项,最终的损失函数定义如下:

L p a i r e d = L m s e + λ _ s R s + λ m R m L u n p a i r e d = L g a n + λ s R s + λ m R m \mathcal{L}_{paired} = \mathcal{L}_{mse} + \lambda\_s \mathcal{R}_s + \lambda_m \mathcal{R}_m \\ \mathcal{L}_{unpaired} = \mathcal{L}_{gan} + \lambda_s \mathcal{R}_s + \lambda_m \mathcal{R}_m Lpaired=Lmse+λ_sRs+λmRmLunpaired=Lgan+λsRs+λmRm

其中 λ s = 0.0001 , λ m = 10 \lambda_s=0.0001, \lambda_m = 10 λs=0.0001,λm=10

在实现方面,基本框架为Pytorch,trilinear interpolation通过CUDA并行实现。训练的优化器为Adam,Batch=1,学习率固定0.0001(pair)和0.0002(unpair),随机裁剪、随机镜像等数据增强。而这N个3DLUT的初始化方式为:第一个为恒等映射,其他则初始化为0。CNN的全连接层的bias初始化为1,确保起始阶段的权值预测为1。

Experiments

训练数据:MIT-Adobe FiveK, HDR+。评价准则:PSNR、SSIM。下面直接看结果咯。

下图给出了三个不同图像采用所提方法生成的3DLUT以及最终的增强结果。可以看到:所提方法生成的结果比固定3DLUT的方式更灵活,效果更佳。

file

下图给出了所提方法与其他SOTA方法在FiveK数据集上的指标对比以及视觉效果对。可以看到所提方法不仅具有更好的指标,同样具有更好的视觉效果。
file
file

下面给出了所提方法与其他SOTA方法在HDR+数据集上的指标与视觉效果对比。

filefile

与此同时,作者也给出了不同图像编辑工具与所提方法的处理效果对比,见下图。

file

最后,作者给出不同的图像增强方法的推理速度对比,见下图。还有什么比这个速度更惊人的吗?以1.66ms的速度处理4K图像,只能感慨一下,快到没反应。

file

全文到此结束,对该感兴趣的同学建议去看一下原文。最后期待作者尽快开源代码。

原文:图像增强领域大突破!以 1.66ms 的速度处理 4K 图像,港理工提出图像自适应的 3DLUT

微信公众号: 极市平台(ID: extrememart )
每天推送最新CV干货

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值