首先你提到的镜头虚化和3D电影的双镜头是两回事。
因为3D电影,也是有全景深,和大光圈带来的虚化效果的。所以要把2D和3D放在一起讨论,全景深和浅景深放在一起讨论。
然后相机镜头的虚化效果是物理带来的,就是你提问最后说的一系列因素导致的。
手机的虚化有一部分是物理的,比如拍摄很近的物体,远处的背景也很虚,这种物理效果跟相机镜头适用的因素相同。
手机的虚化还有一部分是算法的,简单点说就是通过各种办法识别主体,抠像、模糊背景,算法始终有好有坏有失误,没有物理来的直接,没有物理来的渐变过渡。
但是算法可以让本没有虚化的画面产生空间感。(其实我们通过PS也可以做到让全景深的图变成有虚实的图像,只不过手机做了这个工作,又快又好)
所以解答你的问题
1.为什么达不到相机的景深效果?
这是物理因素导致,手机因为镜头光学结构体积受限,(你可以看一下光圈大小、传感器尺寸影响景深的光路图就明白了),你也可以简单的理解为,相同焦段下光圈越大虚化越明显,传感器越大虚化也会产生改变。主要还是手机的镜头体积受限,它不可能达到相机镜头物理带来的效果,所以算法虚化算是一种模拟相机效果,并没有因为多个摄像头而超越相机。
2.相机是如何快速区分哪部分是主体那部分是背景的?
相机并没有区分,只是单纯的接收光线带来的物理效果,根据使用者的调整,而改变焦平面。(相机也会识别主体但主要是进行对焦追焦 又是另一回事了)
3.通过计算来达到相机的虚化效果,却总是在主体边缘出现模糊?
如果你用过Ps抠图就会发现,抠图是一件可以很智能,有时又只能手动的工作。因为原始画面的反差小、对比小、颜色接近、没有虚实变化等等因素,导致人工抠图时都会识别不出边缘,电脑又怎么知道那是哪呢?一旦识别失误,就会导致有些主体也被进行了模糊处理,显得很不自然。
4.你想理解透彻,只能去一个因素一个因素去学习了,光圈、焦段、距离、传感器大小等等每一个影响景深的因素,都有单独的光路图去解释,也没法浅显的说。
其实相机想拥有算法虚化也是可以的,只是几乎所有相机厂家都不做,但并不是不能实现。依我看来,在相机原有的景深能力的基础上添加算法,更容易通过虚实来识别主体并放大效果。比如2.8的效果模拟成1.8这样。
希望能解答你的问题。