该文章是对《计算机视觉增强现实应用概论》中《增强现实的摄像机空间理论》这一节进行摘录和公式推导。
摄像机得到的是一个二位平面图像,而增强现实的元素是三维动画。增强现实系统可以将摄像机获取的外部世界图像通过矩阵变化,重构出一个三维的虚拟空间。该空间以摄像机为坐标原点,称为摄像机坐标系。而以实物为原点建立的坐标系称为世界坐标系。
摄像机运用棱镜将获取到的图像通过小孔成像的方式缩小倒立着呈现在摄像机内部的感光组件上。
摄像机棱镜三维原理投影图
焦距F是棱镜与摄像机感光片上投影出的图像的距离,从图中来看的话,感光片是在棱镜的前面,这可能与摄像机的构造或成正像有关。Oc为摄像机坐标系的原点,对应的三个轴分别为Xc、Yc、Zc,其中Zc称为主坐标轴。C为图像的坐标原点,位于图像中心,U、V分别为它的横纵坐标。
由图可知,U和Xc、V和Yc分别相互平行
假设A点的坐标为(x,0),则根据三角形相似理论,投影到图像上的坐标为U=F*X/Z;同理,V=F*Y/Z。
在这有个问题不太清楚,摄像机坐标的(x,y)一定在感光片的范围内吗?有待解决。
由以上分析还可得出,将真实环境中的三维物体呈现在摄像机的平面图像上,需要经过两个步骤:
(1)将世界坐标系上的一个点通过在三个轴上的旋转以及位移变换,得到其在摄像机坐标系中的位置。
(2)将该点的摄像机坐标系位置通过摄像机自身的投影矩阵投影到平面图像上。
第一步:
由上面的摄像机棱镜三维原理投影图可知,将摄像机坐标系进行旋转后再平移,可与世界坐标系完全重合。
也就是说,这两个坐标系可以通过旋转和平移来实现相互转换,这可通过一个变换矩阵实现,这个矩阵称为摄像机的外部参数矩阵。
这个矩阵是怎么得到的呢?现在作如下定义: