泡泡一分钟:Learning Motion Planning Policies in Uncertain Environments through Repeated Task Executions...

张宁  Learning Motion Planning Policies in Uncertain Environments through Repeated Task Executions

通过重复任务执行学习不确定环境中的运动规划策略
链接:https://pan.baidu.com/s/1TlSJn0fXuKEwZ9vts4xA6g
提取码:jwsd
复制这段内容后打开百度网盘手机App,操作更方便哦

Florence Tsang, Ryan A. Macdonald, and Stephen L. Smith

The ability to navigate uncertain environments from a start to a goal location is a necessity in many applications. While there are many reactive algorithms for online replanning, there has not been much investigation in leveraging past executions of the same navigation task to improve future executions. In this work, we first formalize this problem by introducing the Learned Reactive Planning Problem (LRPP). Second, we propose a method to capture these past executions and from that determine a motion policy to handle obstacles that the robot has seen before. Third, we show from our experiments that using this policy can significantly reduce the execution cost over just using reactive algorithms.

在许多应用中,从开始到目标位置导航不确定环境的能力是必需的。尽管有许多用于在线重新计划的反应算法,但是在利用相同导航任务的过去执行来改进将来的执行方面没有太多调查。在这项工作中,我们首先通过引入学习反应规划问题(LRPP)来正式化这个问题。 其次,我们提出了一种方法来捕获这些过去的执行,并从中确定一个运动策略来处理机器人以前看到的障碍。 第三,我们从实验中可以看出,使用这种策略可以显着降低执行成本,而不仅仅是使用反应算法。

 

转载于:https://www.cnblogs.com/feifanrensheng/p/11519225.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值