说明
该论文的题目为《An Efficient Locally Reactive Controller for Safe Navigation in Visual Teach and Repeat Missions》,发布于2022年RAL。为博士后师兄指定阅读文章,因此在此编撰文章以记述该文章的主旨与要义。
该文章要解决什么问题,提出了一个什么系统?
针对视觉导航问题,在本文中特指 Visual Teach and Repeat (VT&R)视觉施教与复现的导航任务。在该任务中,如果原有道路(施教道路)被阻塞,那么现有的导航方法往往会失效。因此,该文针对VT&R任务提出了一个局部反应式控制器,locally reactive controller,使机器人在环境发生变化时也可以安全导航。
该文章的框架是什么样的,每部分框架实现了什么功能
黎曼运动策略 Riemannian Motion Policies
(这个东西笔者没有做过,不了解)
使用tuples
{
f
,
M
}
\{ f,M\}
{f,M}表达一个运动任务,其中
f
=
f
(
x
,
x
′
)
f=f(x,x')
f=f(x,x′)表达这个运动本身,
M
=
M
(
x
,
x
′
)
M=M(x,x')
M=M(x,x′)被成为黎曼矩阵,是机器人状态
x
x
x的函数,并决定
f
f
f的重要性。
Riemannian Motion Policies 框架允许我们结合多个信息源确定
{
f
,
M
}
\{f,M\}
{f,M},并通过最下化下式获得最优控制
该框架原本用于机械臂,本文实际就是将该框架应用于四足机器人上,并基于高程图构建该
{
f
,
M
}
\{f,M\}
{f,M}。
高程图处理
A. Filling unknown areas:在高程图上执行in-painting filter填充高程图上确实的数据。
B. 可行性分析:基于斜率与粗糙度形成二值化地图。
C. 带符号距离场(SDF),每个位置记录距离最近障碍物的距离,基于 2D Euclidean distance transform 计算SDF
f
S
D
F
f_{SDF}
fSDF。同时由 Sobel edge-detector 计算
▽
f
S
D
F
\bigtriangledown f_{SDF}
▽fSDF,算法对这两者的计算达到了10Hz,保证了算法的即时性。
D. Geodesic Distance Field(GDF) 测地距离场,是一个具有全局唯一最小值的势函数,用于到达局部地图中的某一点(距离目标点越远,该势函数值越小)。在经过二值化的可行使地图上执行 Fast Marching Method (FMM) 获得,
f
G
D
F
f_{GDF}
fGDF。通过Soble算子获得
▽
f
G
D
F
\bigtriangledown f_{GDF}
▽fGDF。
Locally Reactive Controller 局部反应控制器
算法套用 RMPs,即黎曼运动策略,基于两个势函数SDF与GDF实现一个避障与靠近目标的运动控制。
A. 状态表达和参考坐标系,算法由其他部分获得获得机器人的二维位置
(
x
,
y
,
θ
)
(x,y,\theta)
(x,y,θ)
B. 碰撞球:算法使用5个圆表达机器人的碰撞体积。
最终公式:
该文章达到了什么效果,与什么方法相比得到了怎么样的结果
实验一:算法对比了不同策略以及策略的组合套用RMP对运动生成的影响。
实验二:评估各部分的运行时间,没有与其他方法进行比对。
实验三:室内的施教复现例子,仍然没有对比实验
实验四:废弃的地下矿井,多次执行。
实验五:在一个小型的仿真环境中测试方法——FALCO-based local planner(CMU-exploration的控制器)、 Potential Field(一个古老的方法)、 GDF-only()。没有指标对比。
黎曼运动策略, Riemannian Motion Policies, RMP
论文名称:《Riemannian Motion Policies》
一个模块化运动生成的新的数学方法。
着力于解决什么问题
在2000年到2010早期,很多研究人员认为避障实际就是简单的接近目标,并使机械臂远离最近的障碍物。但是在实际中,这些技术远不如预期的这般有效——不稳定与震荡,障碍物规避策略与其他目标任务相互竞争。
本方法用于将需要可能相互竞争的策略融合到一起形成单个运动生成。