论文阅读笔记《Morphology-Agnostic Visual Robotic Control》

该文介绍了一种在高度不确定条件下的机器人视觉控制方法,无需精确的本体感知、形态学信息或相机标定。通过互信息响应值进行机器人自识别,选择控制点,并利用视觉伺服实现运动控制。该方法分为自识别和伺服控制两阶段,能在不稳定手持相机等复杂条件下工作,适用于3D点到达、轨迹跟踪和动作模仿等任务。尽管精度可能受限,但其广泛的应用场景极具潜力。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

核心思想

  该文提出一种在高度自由条件下的机器人视觉控制方法,该方法能够在机器人的驱动不精确、没有本体感知反馈(proprioceptive feedback)、形态学条件未知、相机姿态未知甚至是在不稳定的手持相机拍摄条件下,实现机器人的自识别和运动控制,能够在视觉引导下完成3D空间点的到达、轨迹跟踪和机器人之间动作模仿等任务。常见的机器人视觉引导控制,通常需要固定的相机位置,并对相机参数进行准确的标定,还需要知道机器人基本的形态学信息,如关节,躯干等部件的尺寸位置等。而该文提出的方法能够在上述条件完全未知的情况下,对机器人进行控制,整个过程可以分成两个阶段,第一阶段是实现机器人的自识别,也就是从相机图像中找到机器人本体所在的位置,明确控制对象点(control points);第二阶段就是通过视觉伺服控制的方式,引导控制对象点逐步靠近目标位置,整个过程如下图所示
在这里插入图片描述
  首先,要先通过一段机器人运动的视频,来确定机器人的在图像中所在的位置,这个过程用到了一种称为互信息(mutual information)的方法。互信息的定义如下
在这里插入图片描述
其中 R i R_i Ri表示点 P i P_i Pi的响应得分, Δ S i = S i ( t + 1 ) − S i ( t ) \Delta S_i=S_i(t+1)-S_i(t) ΔSi=Si(t+1)Si(t)表示点 P i P_i Pi的位置变化, A ( t ) A(t) A(t)表示控制指令, I ( ⋅ , ⋅ ) I(\cdot,\cdot) I(,)表示互信息计算方法,计算过程如下
在这里插入图片描述
其中 H ( ⋅ ) H(\cdot) H()表示熵,熵值越大表示该点位置变化的不确定性越大,而 H ( ⋅ ∣ ⋅ ) H(\cdot | \cdot) H()表示条件熵,条件熵值越大表示在条件 A A A已知的情况下, Δ S i \Delta S_i ΔSi的不确定性越大。上式的意思就是说,对于机器人上的点,因为他是在不断运动的,所以位置变化的不确定性很高,即 H ( Δ S i ) H(\Delta S_i) H(ΔSi)的值很大,而当机器人的控制指令 A A A已知时,其位置的不确定性会大幅减少,即条件熵 H ( Δ S i ∣ A ) H(\Delta S_i | A) H(ΔSiA)很小,那么他的互信息响应值 I ( Δ S i ; A ) I(\Delta S_i;A) I(ΔSi;A)就很大。而对于背景中的点,其位置不会随着机器人的运动而发生改变,因此其互信息响应值应该为0。利用这一方法就能够迅速的选择出机器人上的点,并且选择其中响应值最大的 K K K个点计算位置的平均值,就得到了机器人末端的控制对象点(MRCP)。
  最后就是利用视觉伺服的方法引导控制对象点MRCP去逐步靠近目标点(如图中蓝绿色点表示)。

实现过程

  在实现过程中,作者采用了一种由粗到精的控制点计算方法,首先利用Shi-Tomasi角点检测方法从图像中寻找出可能的目标点,然后分别计算这些点的互信息响应值,并选择其中最大的 K K K个点作为候选点。以候选点为中心,分别计算每个候选点附近15*15范围内的点的响应值,再从中选择响应值最大的 K K K个点,并计算平均值得到最终的控制对象点MRCP,如下图所示
在这里插入图片描述
  在计算位置变化 Δ S i \Delta S_i ΔSi时需要对点进行跟踪,本文采用Lucas-Kanade光流估计方法来实现点的跟踪,对于跟踪过程中丢失的点,本文在计算MRCP时会将其丢弃,只计算整个过程都完整跟踪的目标点。因为控制对象是一个刚性的机械臂,这可能导致大部分目标点计算得到的响应值都相同,为了打破这种刚性联系,本文在计算 Δ S i \Delta S_i ΔSi时添加了一定的高斯噪声,来人为的引入随机性干扰。
  视觉伺服阶段本文采用了Broyden更新方法,雅可比矩阵更新过程如下
在这里插入图片描述
控制律 A t A_t At的计算方法如下
在这里插入图片描述

创新点

  • 提出一种基于互信息响应值的机器人自识别方法
  • 采用视觉伺服控制的方式实现了机器人在形态学信息未知条件下的运动控制

算法评价

  本文的主要特点在于能够实现在高度自由的环境下对机器人进行视觉引导控制,无需准确的机器人形态学、动力学、运动学先验知识,无需精确的相机标定,甚至对于类似软体机器人这种对象都能进行控制,这赋予了该方法极大的应用范围,但与此同时我们也能感受到该方法的运动控制精确性是很难保证的,尤其是在单相机的条件下,很难在三维空间中完成精确的运动控制。

如果大家对于深度学习与计算机视觉领域感兴趣,希望获得更多的知识分享与最新的论文解读,欢迎关注我的个人公众号“深视”。在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

深视

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值