路径规划与优化学习系列(二)---PaperLearning1

AAPF-RRT*算法-2021十月论文

来源:一种基于动态步长的AAPF-RRT*移动机器人路径规划新算法_臧强

传统算法缺点

  • APF传统人工势场法缺点:引力和斥力过大

    • 当 当前点 距离 目标点 较远的时候,引力过大会使算法运行进入局部值,导致找不到最优路线的问题
  • RRT*缺点:结点盲目拓展和收敛速率慢

    • 父节点的重新选取存在较大随机性,不能快速达到最优

本算法特点

  • 通过公式的优化,解决了引斥力过大、目标点不可达的问题
  • 动态步长

重点介绍

自适应人工势场

APF缺点原理解释
  • 原理如下:

定义了引力势场和引力函数(斥力势场同理):

在这里插入图片描述

  • q是当前位置,qgoal为目标位置
  • lou 是欧几里得距离,故 lou 过大,引力和斥力都过大
AAPF改进原理一:势场函数
  • 本质:简单的分段函数+阈值处理->专业术语(自适应变换)
    在这里插入图片描述

  • 当距离大于定长d*的时候,引力和斥力函数值是定值;反之则是原来公式计算值

AAPF改进原理二:目标点可达

在这里插入图片描述

  • 0<n<1

在这里插入图片描述

F1->0,F2->无穷大,即指向目标点的引力为无穷大,必然会时无人机或者机器人驶向目标点

  • n=1同理
  • n>1同理

算法核心思想介绍

两个核心算法的结合

在这里插入图片描述

  • 虽然通过中心选择父节点和重新布线的方法,在一定程度上减少了路径代价和冗余通路,但是目标点没有对树的拓展方向产生导向的作用

  • 因此使用势场法使树的拓展产生导向效果

具体结合和公式原理
  • 保留树的拓展、父节点、重新布线

  • 在目标点建立自适应的引力势场,吸引机器人过去

  • 在障碍物处建立自适应斥力势场,避开障碍

在这里插入图片描述

**这里发现了本算法的一个问题:就是random是怎么决定的,文中没有说明,这不是也存在较大的随机性吗??? **

在这里插入图片描述

动态步长

优点:

  • 最优路径
  • 路径平滑性
  • 动态步长随着拓展树和障碍物的距离而变化,配合AAPF的直接导向优势,能达到最优和平滑的特点
原理
  • 当距离障碍物远时,选择固定步长

  • 当距离障碍物近视,选择缩小步长

在这里插入图片描述

lamda是调节因子,控制步长的调节幅度,lou是树结点和障碍之间的预设安全距离

lamda需要不断测试和调整

伪代码

  • 起始点和目标点设置、设定参数变量、初始化拓展树
  • 随机状态点获取后确定拓展树的最近结点
  • 在目标点建立自适应引力势场、在障碍物建立自适应斥力势场,计算最近结点受到的合外力
  • 确定树的搜索方向,计算最近结点道障碍物的最近距离
  • 判断最近距离是否小于预设安全距离,从而决定是否选择动态部长
  • 障碍物判断
  • 新节点添加、父节点选取、结点重新布线
  • 判断是否到达目标点

效果对比

在这里插入图片描述

  • 明显更加平滑和优化

  • 运行时间更加短

  • 大大减少了生成结点的个数

实践

  • 已有RRT*算法的代码,还未添加新思想的代码,后续补充

  • 有待多次纵横实验:不同算法效果对比、不同环境运行的效率总结

总结

1.创新点:

  • 引力和斥力过大的解决
  • 树拓展盲目性解决
  • 路径平滑性和灵活度

2.问题:

  • random的随机性怎么优化?

  • 这只是在传统算法上的改进,只适用于理论研究或者全局路径的规划,飞行过程中的局部动态规划不适用

现有的路径规划算法论文的创新点从两个方面入手:

  • 算法收敛速度:例如用启发式算法(遗传、粒子群…)
  • 使树拓展有明显效果的导向性:例如上述的势场…等等
  • 最优路径

是在传统算法上的改进,只适用于理论研究或者全局路径的规划,飞行过程中的局部动态规划不适用

现有的路径规划算法论文的创新点从两个方面入手:

  • 算法收敛速度:例如用启发式算法(遗传、粒子群…)
  • 使树拓展有明显效果的导向性:例如上述的势场…等等
  • 最优路径

继续加油冲,多多总结论文,积累经验,寻找自己的创新点!!!

  • 2
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值