论文阅读笔记《A Real-Time Model Based Visual Servoing Application for a Differential Drive Mobile Robot》

核心思想

  该文提出一种基于模型的视觉伺服方法(MBVS),其本质上还是基于图像的视觉伺服(IBVS),但是在计算过程中结合了移动机器人的动力学模型,建立起由图像到机器人的移动速度和角速度再到机器人的两个轮子转速的对应关系,因此称之为基于模型的视觉伺服。整个控制流程如下图所示
在这里插入图片描述
  利用一个网络摄像头获取图像特征信息,计算出当前状态和期望状态之间的差异,根据视觉伺服理论确定目标转速 w ∗ w^* w,通过UART通讯接口将信息传递到机器人内部控制模块,利用一个P的控制器对电机进行直接的控制。
  作者首先建立起机器人的移动速度(线速度 v d v_d vd,角速度 w d w_d wd)与差速移动机器人左右两个轮的转速 w r w_r wr w l w_l wl之间的对应关系
在这里插入图片描述
r w r_w rw表示轮子的半径, L L L表示两个轮子之间的距离。然后建立其机器人在世界坐标系中的位姿 ξ d \xi_d ξd关于时间的导数与机器人移动速度之间的对应关系
在这里插入图片描述
联立上式可得
在这里插入图片描述
J J J称之为差速驱动移动机器人的雅可比矩阵,注意与IBVS中的图像雅可比矩阵进行区分,这里构建的是机器人的空间位姿与两个轮子的转速之间的关系。接着按照IBVS的流程建立起图像中特征点的位置关于时间的导数 s ˙ \dot{s} s˙与相机位姿关于时间的导数 ξ ˙ c \dot{\xi}_c ξ˙c之间的对应关系
在这里插入图片描述
在这里插入图片描述
L L L表示图像雅可比矩阵, s s s表示特征点在图像坐标系中的坐标 [ x m , y m ] [x_m,y_m] [xm,ym]。如果假设相机固定在机器人上,且相机坐标系与机器人坐标系重叠,即 ξ c = ξ d \xi_c=\xi_d ξc=ξd,则联立上述式子可得
在这里插入图片描述
则转速 w w w可得
在这里插入图片描述
† \dagger 表示广义逆矩阵,则进一步可以推出差异 e e e对应的控制律
在这里插入图片描述
如果考虑到相机坐标系与机器人坐标系之间的位置关系 V d c V_d^c Vdc,则控制律为
在这里插入图片描述
在这里插入图片描述

算法评价

  该文是偏向于工程应用的文章,整个理论推导过程基本都是比较成熟的,并没有什么创新,并且对于视觉伺服中深度信息估计,特征点丢失等关键问题也没有提出对应的解决方案。

如果大家对于深度学习与计算机视觉领域感兴趣,希望获得更多的知识分享与最新的论文解读,欢迎关注我的个人公众号“深视”。在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

深视

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值