Efficient Autonomous Exploration Planning of Large-Scale 3-D Environments

Efficient Autonomous Exploration Planning of Large-Scale 3-D Environments

Abstract

  • Frontier Exploration Planning FEP 适合探索分开的区域,但是实现全部探索会比较慢,因为不同区域之间会back and forth
  • Receding Horizon Next-Best-View Planning RH-NBVP 探索单独的区域比较好,但是环境比较大时会get stuck,不能全部探索到
  • 这篇文章将FEP作为global exploration Planner,把RH-NBVP作为local,并且提出了更快速评估potential information gain的方法

Introduction

这篇文章提出了autonomous exploration planner(AEP), 是在RHNBVP基础上提出的;
RH-NBVP使用基于采样的方法结合快速探索随机树(RRT)来选择下一个最佳视点,以生成可遍历的路径,对样本进行加权并执行第一个edge,然后再次进行重新计划。 RRT中每个节点的得分是传感器从相应姿势所覆盖的未映射空间的体积,并加上成本进行加权
这篇文章将RHNBVP作为局部探索方法,当机器人附近有information gain 的话,就使用;当比较远时,就去找缓存的information gain比较高的点。这样会导致探索边界,边界是整个区域,可以避免RHNBVP陷入局部最小值;
contributions

  • 使用ray- casting 射线法和 cubature integration 孵化器集合 的方法来计算information gaing,降低计算复杂度;
  • RRT采样的空间又整个的(x,y,z,phi)改为(x,y,z);
  • g 是通过之前迭代过程的缓存点来估计的;
  • Cached points are used for interpolation of new queries. 之前没有考虑过g的连续性,这篇文章会将g建模为一个连续空间的高斯过程,这样的话给定缓存点后就可以计算整个空间的g的一个估计值和对不确定性的估计值;

RELATED WORK

  • Frontier exploration : trade-offs are made between paths lengths, information gain,etc
  • NBV之前只考虑point的information gain,但是因为到点的过程中也会探索unknown的环境,所以RH-NBVP添加了路程中的g,为了减少不确定性,还有一个延伸,就是确保robot会revisit重新到达已知的landmarks
  • 其他的还有势场法等等

Potential Information Gain

在这里插入图片描述估计g用的方法是ray casting 射线法,相当于建立一个局部坐标系,theta phi 和 r,计算半径为r的球里格子的数量
从物理角度来说,如果在空间内g是连续的,那么已经测量好的结果会包含还未测量的点的值,对g进行了一个高斯建模,这点比较有意思

在这里插入图片描述

由于采样的时候只有(x,y) 没有phi,phi取的是g最大时候的值

collision checking

检测障碍物用的是看当前点和目标点连线的圆柱体内是否有障碍物,一旦有就认为这条路径是不可行的,比较简单的一个方法

用frontier做全局指引的话 可以使NBVP不会陷入最小值,也能减少frontier的back and forth的情况

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值