AAAI 2024 | 低光增强与曝光纠正的新方向:不良光照场景下的新视角合成

3a4d202c555d6b6fae3cf86cca6601ea.gif

大家好,今天要介绍的是 AAAI 2024 关于不良光照下 NeRF 新视角合成的工作 Aleth-NeRF (Aleth-NeRF: Illumination Adaptive NeRF with Concealing Field Assumption),目的在不良光照场景下(如低光照和过曝光)场景,能够从 NeRF 无监督增强并且生成正常光照的连贯 3D scene。

我们提出的方法可以对现有 NeRF 进行简单改进,通过引入一个 Concealing Field 的概念,仅用几行代码就可以使得现有的 NeRF 在低光照或者过曝光的情况下,进行 Novel View Synthesis 重建,并且实现无监督的低光增强和曝光纠正。

详细信息如下:

b98d80c62e722427b29ee85818c276bb.png

作者单位:

东京大学,上海AI LAB,日本理化研究所, 牛津大学

论文链接:

https://arxiv.org/pdf/2312.09093.pdf

代码链接:

https://github.com/cuiziteng/Aleth-NeRF

网页链接:

https://cuiziteng.github.io/Aleth_NeRF_web/

ed3b3a173f6935206b555ddce7b0c2fb.png

1bd45fe3b20b35fe5071f90e3f2df82d.png


方法概述

本文提出了 Aleth-NeRF 模型来完成无监督低光照增强&过曝纠正和 Novel View Synthesis。传统 NeRF [1] 是以观察者视角出发,通过设定当前位置光通量的多少来定义物体,缺乏对于光照和物体的结构,无法解释光照变换对场景的影响 [2],所以 NeRF 无法应用于低光照和过度曝光时候的重建。 

非常有趣的是古希腊人也秉持着与 NeRF 非常接近的世界观,古希腊人认为人的眼睛有一道视线,人们看到物体是来源于视线的累积,看不见物体是因为空气中存在遮挡。 

受到古希腊视觉观点的启发,我们认为在黑夜看不见物体是因为空气中存在遮挡物隐蔽场 (Concealing Field),女神 Aletheia 象征着真实/不隐蔽,在希腊语里意为“真相”,这也是 Aleth-NeRF 名字的由来。

因此我们通过对 NeRF 框架做最小改动,在 NeRF 模型中引入了隐蔽场的概念,可以用来有效的解释光照变换,在实际实现中只需要加入几行代码,不需要复杂的光照解构,就可以使得各种 NeRF 框架拥有同时处理低光和过曝光的能力,分为两组隐蔽场(voxel-wise的局部隐蔽场,以及 global-wise 的全局隐蔽场)。 

低光场景下的训练如上图 (c) 所示,训练阶段隐蔽场会加入到 NeRF 的 volume rendering 中参与训练低光照场景,在测试阶段隐蔽场将会被拿开 rendering 出正常光照场景。过曝光场景下的训练如上图 (d) 所示,训练阶段正常,然而测试阶段隐蔽场将会被加上用来 rendering 出正常光照场景。对于以上两种场景,我们都会在训练阶段给 NeRF 网络以及隐蔽场加入无监督损失函数来控制隐蔽场的生成。

模型架构

模型的大概结构图如下所示:

530e2f9723cca55ed64701979739481b.png

以最经典的原始 NeRF 为例,局部隐蔽场通过 NeRF 的 MLP 网络产生,与原始 NeRF 的两个输出 color 和 density 相同,属于 voxel-wise,全局隐蔽场则是一组可学习的网络参数,在每个场景下固定,属于 global-wise,两组隐蔽场共同加入 Volume Rendering 中来衰退原有 NeRF 的 Volume Rendering,通过 Concealing Field 的引入,Volume Rendering 中的每个粒子受到前面粒子的遮蔽作用加强,我们通过 Concealing Field 这一假设来模拟黑暗的产生。 

与此同时,训练阶段我们也通过添加各种无监督损失函数来约束 Concealing Field 的生成,帮助我们更好的增强和修复不良光照场景。低光场景的训练阶段会采用引入 Concealing Field 的 Volume Rendering 公式,在测试阶段采用去掉 Concealing Field 的原有 Volume Rendering 公式,过曝场景则与之相反。

5b6df66614844f7dc3b423601d3b2b69.png

经过我们的实验发现, Concealing Field 的生成范围和 Volume Rendering 中粒子 Density 的范围呈反比例关系,这意味着训练过程中 Concealing Field 更倾向于出现在没有物体的地方,与我们对 Concealing Field 存在空气中的假想一致。

61361fc802e53f03b90cb235b9968ee5.png


损失函数

为了保障 Aleth-NeRF 的无监督增强/过曝纠正,我们额外引入了几个损失函数来约束 Concealing Fields 的生成,首先我们把 NeRF 原有的 MSE 损失函数 L_mse 变换为 L_it-mse,即在计算 MSE 损失之前先把图像过一个反向 Tone 曲线,因为原始 MSE 损失中黑暗像素往往权重过小而过曝像素往往权重较大,因此先加一个反向 Tone 曲线可以某种程度上做一下平衡。 

剩余的是三个无监督损失函数,其中包括控制总体亮度范围 (Enhance Degree) 的损失函数 L_de 和控制对比度 (Contrast Degree) 的损失函数 L_co,以及一个 Color Constancy 损失函数 L_cc。通过调整控制总体亮度损失函数 L_de 和控制对比度损失函数 L_co 的超参数,也可以实现不同程度的增强。

0eaf11c5e91f7d563bcc983a06d1589f.png


590d5292a2e1f80aef0f34d2eeeabbf9.png


数据集

关于数据集方面,我们提出了一个成对的低光照/过曝光/正常光照的 multi-view 数据集 (LOM数据集),以便大家进行后续研究,低光照和过曝光的图像用于训练模型,正常光照的图像用于 Novel View Synthesis 的验证,相比于 2D 图像增强以及视频增强,这一任务更具挑战性,因为需要在图像增强的同时来确保生成图像的 multi-view 一致性,数据集图片如下,我们通过相机采集了五个真实世界的场景 (buu, chair, sofa, bike, shrub),每个场景都包含有 25~65 张 multi-view 图像,每个图像都有三组不同曝光条件 (低光照/过曝光/正常光照)。 

值得一提的是,此前谷歌的 RAW-NeRF [3] 也提供了一些真实世界的 multi-view 低光图片,但是 RAW-NeRF 关注的更多是将 ISP 与 NeRF 渲染结合,利用 RAW 图像的广阔色域和比特数优势来进行渲染,而并不是 RGB 图像增强,因此 RAW-NeRF 也没有对应正常光照 RGB 的 ground truth。 

我们提供的 LOM 数据集可以从网站或 Github 上下载,概览如下图示:

7b9826a25d37c62c1f045fe99a6cb4f9.png

373a3014dbe25829f89cee2d5fc2efaf.png


实验结果

实验方面,我们把原始的 NeRF 模型作为 baseline,除此之外我们再与现有的 2D 图像/视频增强方法进行了对比,与增强方法进行对比时,我们设计了两种方式:1)第一种是用先在低光/过曝图像上训练 NeRF 然后在 novel view synthesis 阶段把 2D 增强方法用作后处理;2)第二种是先用 2D 图像/视频增强方法来预处理数据集,然后在这些增强后的数据上训练 NeRF。 

通过实验我们发现,方式 1 的缺陷在于低质量图像上训练的 NeRF 本身不够可靠,导致后处理增强后的结果也往往不尽如人意,容易出现低分辨率和模糊的情况,方式 2 的缺陷在于 2D 图像/视频增强方法往往不能保证 3D multi-view 的一致性,因此在不一致图像上训练的 NeRF 也会存在问题。 

总的来说,Aleth-NeRF 这种 end-to-end 的方法能够在最终的平均指标上取得最优效果,在 3D 的可视化中也能保持多视角的 consistency,表格与实验结果图如下:

35327b566facdd3b7e78350d5fe70ca9.png

3f6d576874f953ab185f0171029f3f51.png

5b7f9efb28a0f8aed16dcccfd30d8bbe.png


缺陷和展望

虽然 Aleth-NeRF 在低光和过曝场景实现了较好的无监督恢复,但是只是这一任务的初步探索,比如 NeRF 本身自带的缺陷如训练慢和场景无法泛化等,以及 Aleth-NeRF 还是无法解决一些非均匀光照场景与阴影场景等,还有在一些场景中,Aleth-NeRF 复原的图像色彩存在偏差,有些过曝场景的恢复会丢失色彩等等。 

收到古希腊视觉理论,Aleth-NeRF 提出了 Concealing Fields 概念,用一种简单直观的方式来建模黑暗,我们认为也许其他不同的黑暗建模方式也能够取到很好的效果,更有效的低光照建模也许能够克服 Aleth-NeRF 的不足。

outside_default.png

参考文献

outside_default.png

[1]. NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis (ECCV 2020) 

[2]. NeRFactor: Neural Factorization of Shape and Reflectance under an Unknown Illumination. ACM Trans. Graph [3]. NeRF in the Dark: High Dynamic Range View Synthesis from Noisy Raw Images.

更多阅读

1befa25a63e7cb4eb8da9b4bdc305f77.png

aae7491bfe329b3e5ddbf16864e7fe34.png

efec193a72a5a7d0772b07382d95b7aa.png

a718c71a046bb5bc58ee3fcc588792fc.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

87b800a406ba8e788de82d6139844631.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

1a284b055b10fc85942b7ca09ecf05cf.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值