如何实现扫描身份证识别_38. 对焦扫描技术是如何实现EDOF(扩展景深)的?

666234af40556933996930b7bef520fc.png

本文同步发表在我的微信公众号和知乎专栏“计算摄影学”,欢迎扫码关注,

2f6b360ac76df97d429553a67f97fe96.png

我们之前讲解了37. 如何从失焦的图像中恢复景深并将图像变清晰?,我们看到了编码光圈的应用,它可以让我们很容易估计出局部卷积核,从而可以利用去卷积技术得到全焦图像,甚至还可以得到场景的相对深度图。 同时,我们也看到了计算摄影学不仅仅是软件的事情,有的时候也会涉及到一些必要的硬件。

今天我们将先回顾一下之前介绍过的文章33. 摄影-怎样对焦才能让不同距离的物体都拍摄清晰? 。在这里面,我介绍了一个重要的概念:对焦栈,它是对焦距离不同时获取的场景图像的集合。

c0a7c73e929087ff00c878cea5ae3072.png
对焦栈https://www.zhihu.com/video/1224254497771491328

我介绍了利用简单的拉普拉斯算子可以求取每幅图像的相对清晰程度,以此作为权重,然后对对焦栈的图像做加权融合可以得到全焦图像,以及相对深度图。同时,我还介绍了泰国学者Suwajanakorn在2015年CVPR的文章 “Depth from Focus with Your Mobile Phone,”,他在手机上实现了获取对焦栈并利用最优化方法获取全焦图像和深度图。

a43f389d134bd009d85f9afb817ea6bd.png

对焦栈的关键在于改变像距,从而改变对焦距离。Suwajanakorn的文章2015年发表,但是在2008年就已经有人对类似问题做了比较全面的研究。我今天介绍是2008年ECCV的文章“Flexible Depth of Field Photography”,第一作者是下面这位Hajime Nagahara(两位都是亚洲学者,Suwajanakorn略带喜感,Nagahara的眼神颇为凌厉啊 )。

09ff86c673bc3561181ca310b2bb0f0d.png

Ngahara提出了一种对焦扫描(Focal Sweep)的技术,不仅可以用于获取全焦图像,还可以有多种其他的用途。那么接下来就让我们看看他文章说了些什么。

一、传统相机的缺陷

正如以前多次讲到,传统相机具有有限的景深。

fcee9f3b0017c021ef77121889688d9b.png

bebaac42c88e921fc8481d074eafcf13.png

要想扩大景深,可以减小光圈,但这样会导致进光量减小,噪声增加,从而信噪比SNR会降低。

这里有个典型的例子,你可以看到左边这张图因为光圈较大(f/1.4),景深较浅,只有前面这个人对焦了。而右边这张图光圈较小(f/8),因此景深较大,三个人都对焦清晰了。但与此同时,我们观察到画面上出现了很多噪声。

ac2ddc7b7beb43b724f1e5b2cf7b05e1.png

下面这张图更明显,这是在暗光环境下两个不同的镜头设置拍摄的对比。可以看到右图光圈小,导致了强烈的噪声。注意这里右图由于进光量小,所以画面很暗,为了使得能够看清楚,图像的亮度拉伸到了和左图的水平,这样就更加凸显出了其中的噪声情况。

834537585dd8bffcbaef6b5cf86e1306.png

所以对于传统相机,DOF和SNR是一对矛盾,在某些场景下很难协调好。

二、利用扫描对焦平面技术解决矛盾

我们之前讲到Suwajanakorn是利用对焦栈的技术来解决景深的问题,而对焦栈需要拍摄多张图片并最终进行融合。但Nagahara的方法有所不同。他提出的方法是在“单次曝光”过程中移动传感器,从而在曝光时间内累积获取到不同对焦平面的信息,也就是说这种方法只拍摄一张照片。

先来看看他的原型相机,可以看到在马达的作用下,传感器可以在一定范围内来回移动,镜头不动。这样像距会变化,从而对焦距离会改变。

41e51cc6332eb189be657086371ea2bd.png

只要传感器移动的范围足够,就可以让场景中的每一个点在曝光时间内都至少对焦成功一次,如下图所示。

ade39e24730f90a97d52929f6ab4f1b2.gif

Nagahara认为,如果我们能准确的控制传感器移动的起始位置,移动速度、加速度,就可以任意的控制景深。

在进一步讲解原理之前,我们先来看看这种技术的效果,下面左边是我们用这种对焦扫描的技术拍摄的原始照片,右边是对原始照片处理后的扩展景深(EDOF)的照片。与同样的场景用普通相机拍摄的照片做对比,可以看到同样是EDOF图像,这里获取的明显噪声就低很多,同时三个人都对焦清晰了。

5e92d24e331af0c2ea0067e04c8d9ad5.png

再来看一个例子:

76016c81466b3281584be3af36f8aacf.png

三、基本原理

你可能已经看出来了,对焦扫描技术拍摄的原始照片到处都是模糊的,那么它又是如何获取到EDOF图像的呢?

这里面的关键就在于,根据作者的模型推演,对焦扫描技术获取的图像的模糊程度与场景中物体离镜头的距离无关——也就是说每一个场景点的模糊程度都可以用同一个PSF来刻画。而由于有了统一的PSF,因此作者只需要利用一个基本的去卷积算法(详见35. 去卷积:怎么把模糊的图像变清晰?)即可对图像进行去卷积,从而获取到全焦图像。

现在先让我们看看作者对这个相机的PSF是如何建模的。

1.1 从数学上描述对焦扫描

e6dbf94bd7e4de5c82655cc1a5e12327.png

如上图所示,在一定的物距u, 像距v,镜头直径为a的限制下,如果传感器偏离了像平面,距离镜头的距离为p,则物点M会形成一个直径为b的弥散圆。

4ad35b1e75b0d7e43f3f3aeb6348410a.png

278cf246c490fae7399ae536aee7a5fc.png

而弥散圆也就对应着此时的PSF,可以用P(r, u, p)来描述PSF,其中r代表着弥散圆中的点距离成像中心m'的距离。

当考虑到光学像差的情况下,PSF通常用高斯模型来表述:

17f11b35178f2c577732594e38adcc08.png

其中,g为一个固定常量。

现在来考虑下移动传感器的情况,此时我们将得到一个累积的PSF(IPSF),下式中T为曝光时间,p(t)代表t时刻传感器离镜头的距离。

b198caf4c348c4ef1173402beb0f943b.png

作者通过计算得到,只需要让传感器移动非常微小的距离,就可以使得景深发生很大的变化,你可以看到在下表中对作者采用的9mm焦距的镜头,只让传感器移动了81.7微米,就能够让景深范围延伸到从1m到无穷大,或者让传感器移动259.1um就可以让景深从0.2m变化到0.5m,这就是所谓的Focal Sweep——对焦扫描的概念,在这期间每一个扫描过的场景点都会对焦一次。而且正是因为移动的距离很短,因此才可在通常的一次曝光时间内进行对焦扫描。

321bf1756214b2bfed2a320999100edc.png

1.2 扩展景深的原理

现在,让我们把上式(4)和(5)结合起来,让一个镜头均匀的扫描一段时间,即p(t) = p(0) + st, 其中s是移动速率,作者计算出

47b2191b5178719cb8cc30a5434b8797.png

仔细看这个式子会发现它只有第一项与物距u有关,而这里面u>>f,所以几乎可以约掉u——也就是说IP(r, u)是与深度无关的。作者分别用仿真和实拍的方式确定了这一个重要的结论

仿真实验

0d8578a424fbedde228134a5bc99c327.gif

作者模拟了一个普通的相机 对比 对焦扫描相机的在拍摄一个场景时的情况。这里面镜头的焦距为12.5mm, 光圈值f/#= 1.4 , 将g设为1, 并让普通相机对焦到750mm处,而场景中包括从450mm到2000mm的物体,然后用式(4)来计算PSF。可以看到下图左边是不同深度的PSF发生了巨大的变化(仔细看前景深变化更剧烈,所以虽然450mm离750mm比起2000mm更加近一些,但是其对应的PSF却宽度更大)。

f0fd441771f8fb98cab859e170ec5dbe.png

但根据式(7)计算一下IPSF, 却得到了上面的(d)图,即这里面IPSF几乎与物距无关。

实际测量

作者接下来用实际拍摄不同深度的点目标的方式测量了普通相机的PSF以及对焦扫描相机的IPSF,结论与仿真结果是一致的。下面左图是普通相机的PSF测量结果,第三行对应着对焦点的PSF。这里为了让图像能够适配屏幕特意对第三行的图做了纵向压缩50倍。所以实际上第三行的PSF是一个特别窄的尖峰。而下面右图表面了不同距离、不同空间位置的IPSF几乎都是同样的形状和尺寸。

0ffc03f3adb37531ae6c9441166e47c1.png

1.3 去模糊

现在由于每个场景点都具有均匀的PSF,因此只需要做一次去卷积操作即可求出清晰的图像了. 作者采用了Dabov 等人的去卷积方式,这是一种结合了维纳滤波和基于块的去模糊方式。

四、EDOF实拍图像分析

作者用对焦扫描相机拍摄了几个场景,并用上面测量到的IPSF进行了去卷积(实际中是采用上面第一行第二列的卷积核)。我们来看看几个例子:

11eb74185356e40faaef013799845618.png

在这个例子中(a)图是对焦扫描扫描相机拍摄的原图,(b)图是进行了去卷积的结果——可以看到确实实现了扩展景深的目的,场景中所有点都对焦清晰了。而c图是这个相机不做对焦扫描的情况,可以看到景深较浅,只有近处对焦清晰了,远处则是严重模糊的。而(d)图则是光圈调整到f/8的情况,画面都变清晰了,但是却出现了较严重的噪声。注意着里面为了让d图和c图看起来亮度范围一致,对d图做了亮度的拉伸(否则它会比较暗)

从这个例子可以看出,对焦扫描相机确实可以同时兼顾景深DOF和信噪比SNR。

五、更多有趣的效果

对焦扫描相机不仅可以用于EDOF,还可以实现更多有趣的效果。

5.1. 非连续景深

如果让相机先在一个对焦面曝光一段时间,然后快速改变到另外一个对焦面曝光,就可以实现让这两个对焦面清晰成像,而其中间的物体却模糊的效果,这里面是纯物理效应,不需要额外的计算

a2a21525d7a32f0db2ded11a3e912425.gif

62d84fa84fb855363592f7cafbefdd1c.png

5.2 倾斜景深

我们之前的分析中,都是采用的全局快门,即在曝光过程中图像的每一行的曝光情况是均匀的。但如果采用现在很多消费级相机都在采用的卷帘快门,那么就可以实现倾斜景深的效果:

b8167ad3c18a1243e4e5e3b0e3490d1f.gif

传统上,景深是沿着镜头的光轴变化的。但从上图可以看到,卷帘快门导致图像的每一行的曝光时间不一致,因此其IPSF也是不一致的,这种不一致相当于模拟了相机的倾斜拍摄,并且可以计算出传感器或相机的旋转角度为(下式s代表移动速率,H代表传感器高度)

082fdcf4faaf3c8c3e3842429036977f.png

而对应的对焦平面的旋转角度则为:

5283d8090514e210192fedfe8eef1bc5.png

实拍图像也证实了对焦扫描相机可以实现这种倾斜景深的效果:

311d5721b25f1dc99d08a12e6ad19b06.png

5.3、非平面景深

精确控制传感器的移动,还可以实现非平面景深,如下图所示

646c0a8c738dd00b47607109a4197ba4.gif

b71f08bb37c88e9eeaaa7efc8c2ed615.png

5.4、视频拍摄

如果想要在拍摄视频时实现EDOF效果,那么就可以反复的移动传感器,像这样:

0d0e37425d3ba1d79daafa60e127fb91.gif

作者展示了视频EDOF的效果

986d56c35237f8b40f000ba94640d725.png
https://www.zhihu.com/video/1224256680688820224

如果没有对焦扫描相机怎么办?你还可以手动模拟,像这样一边拍照一边快速转动镜头实现对焦扫描:

028e3b7877e348d3d669c5169db815e9.gif

作者还展示了这样拍摄的效果,可以看到这样确实兼顾了DOF和SNR

758dc542678dadc473b85fed89d0c0b0.png

3ebb9f1546bbe47149c00d29e97ccdc9.png

六、实用性分析

现在的手机相机都有马达,而且开发者也比较容易控制镜头马达了(至少对于某些底层开发者),那么对焦扫描技术是否可以用到手机上呢? 先看看景深范围,我手上有一个典型的手机相机的景深表,可以看到马达从只需要移动200um左右,就可以让对焦范围从7cm变化到5m,这表明如果精细控制马达和曝光的话,确实有可能实现扩展景深。

fada00af8eb139a001ddaa502ffe17d1.png

然而别忘了,手机使用的是卷帘快门,这意味着无法像作者使用的全局快门那样实现简单的平移传感器实现EDOF。 必须对镜头、马达做某种更加精细的控制,才有可能实现。 否则很可能只能实现倾斜DOF效果。

同时,手机的马达一般是音圈马达VCM, 在移动过程中会产生震荡,这也使得其最终产生的IPSF不像我们文章中描述的这么单纯。

总的来说我认为这是一种有趣的技术,但从实用性上讲,我认为可能不如Suwajanakorn的方法好吧

a43f389d134bd009d85f9afb817ea6bd.png

七、总结

今天我介绍了对焦扫描技术,能够通过单次拍照和后处理实现包括EDOF在内的多种有趣的效果。其中再次用到了我们之前介绍的去卷积技术。我不清楚对焦扫描技术在工业界或学术研究领域是否真正有实用的地方,但至少在手机摄影这个领域要真正实现它还有诸多困难。有兴趣各位可以试一试

八、参考资料

今天的主要参考资料为:

  1. CMU 2017 Fall Computational Photography Course 15-463, Lecture 18
  2. Nagahara et al., “Flexible depth of field photography,” ECCV 2008 and PAMI 2010
  3. https://www.cs.columbia.edu/CAVE/projects/flexible_dof/
  4. Nagahara的主页http://limu.ait.kyushu-u.ac.jp/e/member/member0002.html
  5. Suwajanakorn的主页http://www.supasorn.com/

本文同步发表在我的微信公众号和知乎专栏“计算摄影学”,欢迎扫码关注,

2f6b360ac76df97d429553a67f97fe96.png
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值