核心思想
该文提出一种基于模型的视觉伺服方法(MBVS),其本质上还是基于图像的视觉伺服(IBVS),但是在计算过程中结合了移动机器人的动力学模型,建立起由图像到机器人的移动速度和角速度再到机器人的两个轮子转速的对应关系,因此称之为基于模型的视觉伺服。整个控制流程如下图所示
利用一个网络摄像头获取图像特征信息,计算出当前状态和期望状态之间的差异,根据视觉伺服理论确定目标转速
w
∗
w^*
w∗,通过UART通讯接口将信息传递到机器人内部控制模块,利用一个P的控制器对电机进行直接的控制。
作者首先建立起机器人的移动速度(线速度
v
d
v_d
vd,角速度
w
d
w_d
wd)与差速移动机器人左右两个轮的转速
w
r
w_r
wr和
w
l
w_l
wl之间的对应关系
r
w
r_w
rw表示轮子的半径,
L
L
L表示两个轮子之间的距离。然后建立其机器人在世界坐标系中的位姿
ξ
d
\xi_d
ξd关于时间的导数与机器人移动速度之间的对应关系
联立上式可得
J
J
J称之为差速驱动移动机器人的雅可比矩阵,注意与IBVS中的图像雅可比矩阵进行区分,这里构建的是机器人的空间位姿与两个轮子的转速之间的关系。接着按照IBVS的流程建立起图像中特征点的位置关于时间的导数
s
˙
\dot{s}
s˙与相机位姿关于时间的导数
ξ
˙
c
\dot{\xi}_c
ξ˙c之间的对应关系
L
L
L表示图像雅可比矩阵,
s
s
s表示特征点在图像坐标系中的坐标
[
x
m
,
y
m
]
[x_m,y_m]
[xm,ym]。如果假设相机固定在机器人上,且相机坐标系与机器人坐标系重叠,即
ξ
c
=
ξ
d
\xi_c=\xi_d
ξc=ξd,则联立上述式子可得
则转速
w
w
w可得
†
\dagger
†表示广义逆矩阵,则进一步可以推出差异
e
e
e对应的控制律
如果考虑到相机坐标系与机器人坐标系之间的位置关系
V
d
c
V_d^c
Vdc,则控制律为
算法评价
该文是偏向于工程应用的文章,整个理论推导过程基本都是比较成熟的,并没有什么创新,并且对于视觉伺服中深度信息估计,特征点丢失等关键问题也没有提出对应的解决方案。
如果大家对于深度学习与计算机视觉领域感兴趣,希望获得更多的知识分享与最新的论文解读,欢迎关注我的个人公众号“深视”。