所谓光场,即是空间中任意点发出的任意方向的光的集合。光是载体,携带了物体的信息,在3D空间中任意一束光我们用5个 参数来定义,位置坐标x, y, z和方向坐标角θ,φ。如图1所示: 如果将目标锁定为一个观测的物体,将自身限制在物体的周围,由物体发出的光线的所有集合就可以用4D来表示(图2的方式定义光线),并定义为4D光场。 Marc Levoy的光场理论就是基于上述表示方法之上的。

                     
图1 3D空间任意光线的5D坐标表示                    图 2 光线的4D坐标表示


Light field rendering
理论
所有的光场理论的应用基础都是Light field rendering的思想和实现。如图3(a)所示, 在目标物“龙”的周围我们可以拍摄不同位置不同角度的图片。在图3(b)中×××位置和红色2代表的位置上拍摄物体龙的信息基本相同,但是由于视场不同××× 位置获得的图像视场小于红色位置2,但是获得的细节信息多于红色位置2,而红色位置1和红色位置3拍摄的图像包含部份×××位置拍摄图像的信息,因此通过计 算可以通过红色位置1,2,3的图像中部分信息计算出×××位置拍摄的图像的全部信息。由此,我们可以不在×××位置拍摄图像,而通过红色位置1,2,3的图 像计算出他的图像。根据这种理论,通过在物体周围拍摄到足够的图片(如图3(b)),形成物体的光场如图3(c)所示,就可以获得任意位置拍摄到的图片, 而无须真实的拍摄,从而获得“龙”的所有信息。


图 3
通过这个理论我们可以根据需要和目的,制作成不同的产品,将其应用到不同的领域。

1. 光场相机(相机阵列)

 

2. 光场相机(镜头阵列)

 
光场相机(镜头阵列)

通过上述相机,可以一次同时拍摄出不同景深的照片(如图6),而普通照相机是无法获得这么多不同聚焦点的图片的。



图6 光场相机拍摄的不同景深的图像

3. 三维重建

通过物体高速旋转,拍摄一周不同视角的图像,再通过计算合成物体的三维立体图像。

采用光场的理论进行三维重建与传统三维重建方法相比有很大的优势(1)所需计算资源很小,因此便于进行实时处理,在工作站或个人PC上就可以实现实时的三 维重建(2)不会因交互重现的物体的复杂性而提高操作难度和计算复杂度(3)片源可以源于不同的途径,真实的或虚拟的场景都可以,例如数字照片图像或者虚 拟的图像。
          

总之,普通相机镜头是通过中央的透镜聚焦光线,并反射到一个传感器上成像的,所以拍出的照片只有一个焦点,其性质必然只有一个重点。光场相机 (light-field camera)或其他的应用,基于光场理论,当对同一物体从不同的视角进行观测后,可以计算出新的视角的成像情况,而无须在该视角成像。

当然,光场离不开计算机技术,利用计算机技术经过对应的软件分析这些照片后,从而产生数以千计的中间图像并将每个图像无缝连接。如三维重建中,这些图像层层重叠就像薄片,形成一个三维的模拟图像,而图像的每一层都会有聚焦点。

光场相机的产生,具备广泛的应用前景。它可通过视觉媒体,应用于印刷或电视新闻及广告;可应用于安全和监视;也可形成多镜头摄影机,重新界定消费者摄影。

 

 

 

本文来源:

http://www.lusterinc.com/episteme/lightground.html