如何将图像像素速度转变到相机速度?
导入
在基于图像的视觉伺服中,我们可以通过相机观察到图像在相机中的位置发生变化 ,针对于每个像素来说呢?便是图像中像素发生了位置变化,通过求导我们可以将位置的变化转化成像素的速度变化。那有没有一种东西可以将像素的速度变化转变到相机坐标系下呢?答案是有的。它就是图像的雅各比矩阵或者严格意义上来说是交互矩阵。那交互矩阵又是怎么将像素速度的变化与相机速度的变化联系到一起的呢?下面想通过推导来说明一下这个问题。
符号定义
根据相机成像模型,我们做如下定义:
话外:像素是什么呢?通过百度和wiki我们可以看到定义:
像素,为影像显示的基本单位,译自英文“pixel”,每个这样的消息元素不是一个点或者一个方块,而是一个抽象的取样。照片是一个个取样点的集合,在影像没有经过不正确的/有损的压缩或相机镜头合适的前提下,单位面积内的像素越多代表分辨率越高,所显示的影像就会接近于真实物体。
相机所说的像素,其实是最大像素的意思,像素是分辨率的单位,这个像素值仅仅是相机所支持的有效最大分辨率。30万 640×480=307,200像素 我懵了。
像素坐标系 u,v:位于像素平面上,其原点位于图像左上角,单位为像素。
图像坐标系 x,y:位于成像平面上,原点在在成像平面的中心点附近,单位为物理单位(如 mm)。
相机坐标系 X,Y,Z:原点为光心,单位为物理单位(如 mm)。
世界坐标系 :实际三维空间中的坐标系,根据使用需要进行定义,是用于表示系统中绝对位置的坐标系,单位为物理单位(如 mm)。
为了表达图像中被测量的特征(单一点特征):
:图像中可以被测量的图像特征值向量
:图像中被测量的图像特征速度