大家好,今天要介绍的是 AAAI 2024 关于不良光照下 NeRF 新视角合成的工作 Aleth-NeRF (Aleth-NeRF: Illumination Adaptive NeRF with Concealing Field Assumption),目的在不良光照场景下(如低光照和过曝光)场景,能够从 NeRF 无监督增强并且生成正常光照的连贯 3D scene。
我们提出的方法可以对现有 NeRF 进行简单改进,通过引入一个 Concealing Field 的概念,仅用几行代码就可以使得现有的 NeRF 在低光照或者过曝光的情况下,进行 Novel View Synthesis 重建,并且实现无监督的低光增强和曝光纠正。
详细信息如下:
作者单位:
东京大学,上海AI LAB,日本理化研究所, 牛津大学
论文链接:
https://arxiv.org/pdf/2312.09093.pdf
代码链接:
https://github.com/cuiziteng/Aleth-NeRF
网页链接:
https://cuiziteng.github.io/Aleth_NeRF_web/
方法概述
本文提出了 Aleth-NeRF 模型来完成无监督低光照增强&过曝纠正和 Novel View Synthesis。传统 NeRF [1] 是以观察者视角出发,通过设定当前位置光通量的多少来定义物体,缺乏对于光照和物体的结构,无法解释光照变换对场景的影响 [2],所以 NeRF 无法应用于低光照和过度曝光时候的重建。
非常有趣的是古希腊人也秉持着与 NeRF 非常接近的世界观,古希腊人认为人的眼睛有一道视线,人们看到物体是来源于视线的累积,看不见物体是因为空气中存在遮挡。
受到古希腊视觉观点的启发,我们认为在黑夜看不见物体是因为空气中存在遮挡物隐蔽场 (Concealing Field),女神 Aletheia 象征着真实/不隐蔽,在希腊语里意为“真相”,这也是 Aleth-NeRF 名字的由来。
因此我们通过对 NeRF 框架做最小改动,在 NeRF 模型中引入了隐蔽场的概念,可以用来有效的解释光照变换,在实际实现中只需要加入几行代码,不需要复杂的光照解构,就可以使得各种 NeRF 框架拥有同时处理低光和过曝光的能力,分为两组隐蔽场(voxel-wise的局部隐蔽场,以及 global-wise 的全局隐蔽场)。
低光场景下的训练如上图 (c) 所示,训练阶段隐蔽场会加入到 NeRF 的 volume rendering 中参与训练低光照场景,在测试阶段隐蔽场将会被拿开 rendering 出正常光照场景。过曝光场景下的训练如上图 (d) 所示,训练阶段正常,然而测试阶段隐蔽场将会被加上用来 rendering 出正常光照场景。对于以上两种场景,我们都会在训练阶段给 NeRF 网络以及隐蔽场加入无监督损失函数来控制隐蔽场的生成。
模型架构
模型的大概结构图如下所示:
以最经典的原始 NeRF 为例,局部隐蔽场通过 NeRF 的 MLP 网络产生,与原始 NeRF 的两个输出 color 和 density 相同,属于 voxel-wise,全局隐蔽场则是一组可学习的网络参数,在每个场景下固定,属于 global-wise,两组隐蔽场共同加入 Volume Rendering 中来衰退原有 NeRF 的 Volume Rendering,通过 Concealing Field 的引入,Volume Rendering 中的每个粒子受到前面粒子的遮蔽作用加强,我们通过 Concealing Field 这一假设来模拟黑暗的产生。
与此同时,训练阶段我们也通过添加各种无监督损失函数来约束 Concealing Field 的生成,帮助我们更好的增强和修复不良光照场景。低光场景的训练阶段会采用引入 Concealing Field 的 Volume Rendering 公式,在测试阶段采用去掉 Concealing Field 的原有 Volume Rendering 公式,过曝场景则与之相反。
经过我们的实验发现, Concealing Field 的生成范围和 Volume Rendering 中粒子 Density 的范围呈反比例关系,这意味着训练过程中 Concealing Field 更倾向于出现在没有物体的地方,与我们对 Concealing Field 存在空气中的假想一致。
损失函数
为了保障 Aleth-NeRF 的无监督增强/过曝纠正,我们额外引入了几个损失函数来约束 Concealing Fields 的生成,首先我们把 NeRF 原有的 MSE 损失函数 L_mse 变换为 L_it-mse,即在计算 MSE 损失之前先把图像过一个反向 Tone 曲线,因为原始 MSE 损失中黑暗像素往往权重过小而过曝像素往往权重较大,因此先加一个反向 Tone 曲线可以某种程度上做一下平衡。
剩余的是三个无监督损失函数,其中包括控制总体亮度范围 (Enhance Degree) 的损失函数 L_de 和控制对比度 (Contrast Degree) 的损失函数 L_co,以及一个 Color Constancy 损失函数 L_cc。通过调整控制总体亮度损失函数 L_de 和控制对比度损失函数 L_co 的超参数,也可以实现不同程度的增强。
数据集
关于数据集方面,我们提出了一个成对的低光照/过曝光/正常光照的 multi-view 数据集 (LOM数据集),以便大家进行后续研究,低光照和过曝光的图像用于训练模型,正常光照的图像用于 Novel View Synthesis 的验证,相比于 2D 图像增强以及视频增强,这一任务更具挑战性,因为需要在图像增强的同时来确保生成图像的 multi-view 一致性,数据集图片如下,我们通过相机采集了五个真实世界的场景 (buu, chair, sofa, bike, shrub),每个场景都包含有 25~65 张 multi-view 图像,每个图像都有三组不同曝光条件 (低光照/过曝光/正常光照)。
值得一提的是,此前谷歌的 RAW-NeRF [3] 也提供了一些真实世界的 multi-view 低光图片,但是 RAW-NeRF 关注的更多是将 ISP 与 NeRF 渲染结合,利用 RAW 图像的广阔色域和比特数优势来进行渲染,而并不是 RGB 图像增强,因此 RAW-NeRF 也没有对应正常光照 RGB 的 ground truth。
我们提供的 LOM 数据集可以从网站或 Github 上下载,概览如下图示:
实验结果
实验方面,我们把原始的 NeRF 模型作为 baseline,除此之外我们再与现有的 2D 图像/视频增强方法进行了对比,与增强方法进行对比时,我们设计了两种方式:1)第一种是用先在低光/过曝图像上训练 NeRF 然后在 novel view synthesis 阶段把 2D 增强方法用作后处理;2)第二种是先用 2D 图像/视频增强方法来预处理数据集,然后在这些增强后的数据上训练 NeRF。
通过实验我们发现,方式 1 的缺陷在于低质量图像上训练的 NeRF 本身不够可靠,导致后处理增强后的结果也往往不尽如人意,容易出现低分辨率和模糊的情况,方式 2 的缺陷在于 2D 图像/视频增强方法往往不能保证 3D multi-view 的一致性,因此在不一致图像上训练的 NeRF 也会存在问题。
总的来说,Aleth-NeRF 这种 end-to-end 的方法能够在最终的平均指标上取得最优效果,在 3D 的可视化中也能保持多视角的 consistency,表格与实验结果图如下:
缺陷和展望
虽然 Aleth-NeRF 在低光和过曝场景实现了较好的无监督恢复,但是只是这一任务的初步探索,比如 NeRF 本身自带的缺陷如训练慢和场景无法泛化等,以及 Aleth-NeRF 还是无法解决一些非均匀光照场景与阴影场景等,还有在一些场景中,Aleth-NeRF 复原的图像色彩存在偏差,有些过曝场景的恢复会丢失色彩等等。
收到古希腊视觉理论,Aleth-NeRF 提出了 Concealing Fields 概念,用一种简单直观的方式来建模黑暗,我们认为也许其他不同的黑暗建模方式也能够取到很好的效果,更有效的低光照建模也许能够克服 Aleth-NeRF 的不足。
参考文献
[1]. NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis (ECCV 2020)
[2]. NeRFactor: Neural Factorization of Shape and Reflectance under an Unknown Illumination. ACM Trans. Graph [3]. NeRF in the Dark: High Dynamic Range View Synthesis from Noisy Raw Images.
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
·
·