百度Apollo学习笔记(3)——规划技术

1.强化学习

  强化学习(Reinforcement Learning, RL),又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一,用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。

2.约束条件
  • 交通规则(必须遵守)
  • 决策(如是否超车等)
  • 最佳路径
3.3D优化问题

  迭代优化。最大期望算法(Expectation-Maximization algorithm, EM),或Dempster-Laird-Rubin算法。缺点在于只能收敛到局部最优解,但对于无人驾驶的路径规划也是足够使用的。

优化关键步骤

  • 确定目标
  • 设定约束
  • 求最优解
4.百度Apollo路径规划策略
4.1 Planning DP(动态规划)

在这里插入图片描述

  • 道路点采样
  • 路径生成
  • 最优化路径
4.2 Planning 2.0 Path QP(二次优化)
  • 问题抽象:建立平滑的自然坐标系(SL)
  • 模型建立:确定合理优化目标函数和约束条件
  • 优化求解:利用二次优化求解带约束的二次规划问题
4.3 Planning Speed DP(动态规划)
  • 问题抽象 ST图:停车、避让、超车、限速等
  • Cost函数:障碍物、路径曲率、主车状态
  • 规划求解:Dp最优化Cost
5.优化方法
  • 动态规划
  • 二次规划
  • 组合优化
6.路径规划方法
  • RRT
  • Lattice
  • PRM
  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不放弃的蜗牛

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值