无人机路径规划
文章平均质量分 80
Keeprunning_Yu
偶尔记录分享对学习对生活的感悟
展开
-
7.[论文荐读] 一篇关于自主探索规划方面的论文
在迷宫环境中,论文方法和Ours with GS方法的探测时间和轨迹长度分别为(561秒,358米)和(639秒、385米),论文方法优于Ours with GS方法。因此,实验结果证明了论文方法的有效性,与现有方法相比,论文所提出算法的探索效率提高了约28.5%。与原始算法相比,改进K-means的边界聚类算法省去了移动中心点坐标的操作,极大地提高了边界聚类的速度。随后,对提取的边界进行边界聚类,再对每个聚类进行候选点评价,选择最佳的聚类点作为下一个探索目标。表示不同优化目标的信息增益与行程距离的权重。转载 2023-12-04 13:09:38 · 71 阅读 · 0 评论 -
6.[论文荐读] 一篇关于无人船运动控制方面的论文
在航向角实验中,分别设置了三十度和九十度的期望航向角,得出了两种算法的响应曲线,如图4所示。在没有风浪的环境下,PI算法和TD3-PI方法都实现了航向角的精确控制,然而在添加了风浪模型后,PI和TD3-PI的响应曲线都出现了振荡,但是TD3-PI的振荡幅度和频率比PI低得多,且在超调量和稳态误差这两个指标上也表现得更好。其中航向角偏差和控制舵角构成了算法的状态空间,PI控制器的参数Kp和Ki构成了算法的动作空间,根据系统的特性,对动作空间Kp和Ki进行了裁剪。图 1 TD3-PI方法的框架。转载 2023-12-04 13:05:02 · 152 阅读 · 1 评论 -
5.[论文荐读] 基于深度强化学习的欠驱动无人船目标拦截和避障策略设计
反之,若拦截船只在上一个回合距离障碍物较远,拦截的时间较长,在这个回合中就会增加拦截奖励的系数以引导拦截船只在避障的前提下沿一条更加短的路径航行。在执行拦截任务时,拦截时间和避障是有冲突的,为了平衡这个冲突,论文采用了多目标均衡的方法,具体体现在奖励函数拦截奖励和避障奖励的系数n0和n1上。除了上文提到的误差,状态空间还包含了敌对船只的速度,和距离拦截船只最近的三个障碍物的坐标、障碍物的半径以及拦截船只和障碍物的距离。2、在奖励函数的设置上引入了多目标均衡的思想,平衡了拦截时间和避障的矛盾。转载 2023-12-04 13:00:12 · 318 阅读 · 0 评论 -
4.[论文荐读] 一篇关于无人机自主降落的论文
本方法使用的奖励函数如下所示,其中,若无人机成功降落在地面目标上,则给予无人机正向奖励;实验结果表明,本文提出的方法达到了91%的降落成功率,且降落点集中在无人车平板右下角,证明了本文的控制策略能够实现对降落目标的位姿估计,并为降落到曲线加速运动的无人车上预留运动控制提前量。降落场景B是为了探索无人机在面对大风环境与变加速曲线运动的无人车下的降落鲁棒性,无人车速度被设计为为0.8m/s,风速干扰被设计为0.2m/s,无人车加速度被设定为每隔2秒变化0.2m/s2,降落场景B中的实验设计与结果如图8所示。转载 2023-12-04 12:53:22 · 284 阅读 · 0 评论 -
3.[论文荐读] 动态环境下机器人导航的深度强化学习策略
首先通过计算机器人在一个时刻的可行速度和在过去n个时刻内使用这些速度所对应的成本来构造观测空间,这种方式构造出的观测空间纬度低,也显著降低训练时间,并且更容易将训练后的策略迁移到真实环境。状态空间包含离散化的机器人速度集合[v,ω],根据障碍物与速度集合中的速度模拟后轨迹的关系计算出的障碍物成本,以及根据速度集合中的速度模拟后位置与目标位置差异计算出的目标对齐成本。在有移动障碍物的环境中,DWA-RL发生碰撞的次数明显减少,因为DWA-RL考虑了障碍物随时间的运动,并计算了避开障碍物前面危险区域的速度。转载 2023-10-14 00:29:04 · 501 阅读 · 0 评论 -
2.[论文分享] 面向分布式多机器人系统的多边形避碰速度障碍方法
随后,论文提出了一种基于VO原理的多机器人导航方法,并在多种具有挑战性的场景中进行了验证。其次,为了验证所提出方法的先进性,论文在相同设置下,构建了包含两个静态障碍物和两个动态障碍物的新仿真环境(如图5所示),以完成率、锁死率、平均行进距离作为评价指标,同时对比VO、RVO、HRVO方法分别在基于圆形与基于论文多边形避障方法的性能(如图6所示)。针对高效率多边形VO计算方法,论文首先介绍了基于圆形的VO方法(如图1所示),以此为基础又介绍了两种基于圆形VO方法的变式:RVO和HRVO方法。转载 2023-10-14 00:28:39 · 195 阅读 · 0 评论 -
1.[论文分享] 无人艇任务分配
可以看出基于Logistic的初始化可以在更大的范围内产生更均匀分布的粒子,提高算法的稳定性。需要注意的是当粒子收敛至最优域时,收缩因子会随着迭代减小,这是为了使粒子的速度尽快降低,提高开拓效率,但是当全局最优改变时,我们希望粒子能够快速前往新的最优域,这代表我们需要更大的收缩因子。需要注意的是探索粒子最终还是会随着迭代收敛,这是不可避免的,这会使收敛的粒子失去探索功能,因此本文提出了一种复活策略,当探索粒子的速度足够小时,将其定义为死亡粒子,然后粒子会复活并根据Logistic映射获得初始解。转载 2023-10-13 22:17:48 · 202 阅读 · 0 评论