NeRF实在太重要了代表着计算机视觉、图像学结合的未来重要方向;NeRF对于计算机视觉背景的同学有一定的理解门槛,本次试图以最小背景知识补充、最少理解成本为前提介绍NeRF。

NeRF,即Neural Radiance Fields(神经辐射场)的缩写。研究员来自UCB、Google和UCSD。

Title:NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis

Paper: https://arxiv.org/pdf/2003.08934.pdf

Code: https://github.com/bmild/nerf

写这篇文章的动机是,一方面NeRF实在太重要了代表着计算机视觉、图像学结合的未来重要方向;另一方面NeRF对于计算机视觉背景的同学有一定的理解门槛,这篇文章试图以最小背景知识补充、最少理解成本为前提介绍NeRF。

NeRF的研究目的是合成同一场景不同视角下的图像。方法很简单,根据给定一个场景的若干张图片,重构出这个场景的3D表示,然后推理的时候输入不同视角就可以合成(渲染)这个视角下的图像了。

「3D表示」有很多种形式,NeRF使用的是辐射场,然后用「体渲染」(Volume Rendering)技术,给定一个相机视角,把辐射场渲染成一张图像。选用辐射场+体渲染的原因很简单,全程可微分。这个过程很有意思,可以理解为把一个空间朝一个方向上拍扁,空间中的颜色加权求和得到平面上的颜色。

辐射场

NeRF~_计算机视觉

体渲染

所谓体渲染,直观地说,我们知道相机的焦点,焦点和像素的连线可以连出来一条射线,我们可以对这条射线上所有的点的颜色做某种求和就可以得到这个像素的颜色值。

理论上,我们可以对这条射线经过空间上的每个点的密度(只和空间坐标相关)和颜色(同时依赖空间坐标和入射角)进行某种积分就可以得到每个像素的颜色。当每个像素的颜色都计算出来,那么这个视角下的图像就被渲染出来了。如下图所示:

NeRF~_3D_02

从相机焦点出发,往一个像素连出一条射线,获取射穿过空间中每个点的属性,进行积分得到这个像素的颜色

NeRF~_神经网络_03

NeRF~_计算机视觉_04

 

用神经网络来代替查表的方式表示辐射场

整体过程

因为神经网络是可微分的,选取的体渲染方法是可微分;体渲染得到的图片和原图计算MSE Loss。整个过程可端到端地用梯度回传来优化非常漂亮。整个训练Pipeline如下图所示:

NeRF~_计算机视觉_05

看到这,读者就已经大致理解NeRF的原理了,后面章节是NeRF的具体细节。

用辐射场做体渲染

前面我们已经大致理解体渲染的过程是怎么做了。可是怎么沿着射线对空间中的颜色进行积分呢?如果我们把射线看作是光线,可以直观得到这个积分要满足的两个条件:

  1. 一个点的密度越高,射线通过它之后变得越弱,密度和透光度呈反比
  2. 一个点的密度越高,这点在这个射线下的颜色反应在像素上的权重越大

NeRF~_神经网络_06


 而实际渲染过程,我们只能把射线平均分成N个小区间,每个区间随机采样一个点,对采样得到的点的颜色进行某种加权求和:

NeRF~_计算机视觉_07

NeRF~_3D_08

 

神经辐射场的两项优化点

Positional encoding

类似Transformer的做法,把坐标和视角用更高维度的表示作为网络输入,来解决渲染图像比较糊的问题:

NeRF~_计算机视觉_09

 

Hierachical volume sampling

NeRF~_3D_10

 

NeRF~_神经网络_11

 

Architecture

NeRF~_计算机视觉_12

 

NeRF~_计算机视觉_13