文献阅读报告 - Pedestrian Trajectory Prediction With Learning-based Approaches A Comparative Study...

概述

本文献是一篇文献综述,以自动驾驶载具对外围物体行动轨迹的预测为切入点,介绍了基于运动学(kinematics-based)和基于机器学习(learning-based)的两大类预测方法。

并选择了基于机器学习的六种具体方法(GP、LSTM、GP-LSTM、Character-based LSTM、Seq2Seq、Seq2Seq with Attention)做量化对比性研究,利用增强的行人过/停马路的数据,使用轨迹平均误差和终点误差作为衡量标准,最终结果显示,常规Seq2Seq模型(Vanilla Seq2Seq - 即不带有注意力转移优化的模型)在六种方法中表现均为最好,能够做到在常规情况下,对行人1s后的位置预测误差小于15cm。

贡献与创新点:

  1. 构建汽车-行人过马路的情形对6中机器学习方法进行比较评估。
  2. 依赖现有的数据库,使用数据增强方法,形成可供机器学习模型使用的数据量。
  3. Vanilla Seq2Seq模型的表现相对6中方法最佳。

模型概述

基于运动学的模型(有待细致研究)

IMMs(Interacting Multiple Models):综合多种单一的运动学模型,提供更高准确性(up to 30 cm)。

SLDS(Switching Linear Dynamic System):基于马尔科夫链概率转移,在多种线性运动学模型间切换,从而处理实际情况中非线性的运动情况。

DBN(Dynamic Bayesian Network):除了SLDS考虑的运动学特征,将行人头部偏移、距离、环境等潜在因素纳入考虑,提供更高准确性。

问题:数学模型属于计算集中型,对载具设备的算力要求比较大。

基于机器学习的模型

GP(Gaussian Processes):高斯过程,一种无参数的机器学习方法,其假设了序列数据所呈现的高斯过程特点,通过此概率分布求出特定时间点的预测结果。GP模型的核心是协方差函数(核心函数),\(\mu, \theta\)为协方差函数的超参数,也是需要通过训练得到的,数据训练主要就是为求得以上两个参数。(此部分内容待深入研究)

LSTM(Long Short-Term Memory):经典的序列模型,相较于传统RNN模型,新增Cell State传递状态和Cell中的复杂逻辑门以保证数据在长序列传递时梯度消失与爆炸问题。

GP-LSTM:将GP模型作为外壳,LSTM作为GP模型的核心参数以更好适应序列模型的回归任务,以达到将输入的序列集合转换成GP模型所需要的实数。

Character-based LSTM:与传统LSTM相同的是,均使用LSTM做序列回归任务;与传统LSTM不同的是,C-LSTM在输入一个轨迹序列后每次均只生成下一个时间点的数据,在概率分布满足二维高斯分布的条件下,用线性变化矩阵得到二维高斯分布的5个参数,进而确定下一时刻所在的位置。

Seq2Seq:由Encoder和Decoder组成,之间以一个高维向量\(c\)衔接,Encoder和Decoder均可用LSTM实现,下一步预测依赖于上一步预测的结果。

\[P(Y_{k+m+1}|Y_{k+1:k+m}) = g(h_{k+m+1}, y_{k+1:k+m},c)\]

1616500-20190713172415780-920968096.png

Attention-based Seq2Seq:在Seq2Seq上进一步优化,避免高维向量\(c\)所传递信息的有限性,使得每步预测时自适应地带权选择Encoder的输出内容。

\[P(Y_{k+m+1}|Y_{k+1:k+m}) = g(h_{k+m+1}, y_{k+1:k+m},c_{k+m+1})\]

1616500-20190713172423277-513976273.png

对比实验细节

数据

  1. 数据库:Daimler pedestrian path prediction benchmark dataset,数据由车载立体摄像头(22 cm, 16 fps, 1176 * 640 pixels)的记录处理得到。

    1. Positional Ground Truth - 人工标记bounding box
    2. Head Orientation - 头部识别与方向检测
    3. Minimum Distance between pedestrian & vehicle - Position + Velocity(车载传感与行人加速度估计)
  2. 数据属性:数据为行人的序列数据,序列时长需大于2秒(前1秒用作obs,后1秒用作pred)将数据提取为\(\{X,Y\}\),其中\(X\)为已知轨迹的序列向量,\(Y\)为预测轨迹的序列向量,序列时间片为frame(16.3 frames = 1 secs ​with 0.1 std derivation),\(Y\)为行人从汽车侧方向维度相对的距离,选择行人后脚踩在路边停止线(或离停止线最近)的时刻作为事件发生的基准时刻。

1616500-20190713172348786-2052327855.png

1616500-20190713172357193-1195634663.png

  1. 数据分类:

    文献选取了数据库的数据对58份数据进行了分类,分别是穿过-停止的维度和常规-硬核的维度,选取这两个划分类别的原因旨在分别比较这四种图像差异大的轨迹对学习模型的影响与挑战。

    四种轨迹分布如上文图所示:

    穿过(Cross)停止(Stop)
    常规(Normal)线性,穿过缓慢减速,至TTE=0时梯度为0,停止在马路停止线上(或后)
    (Hard)较常规型存在非线性的拉伸,穿过减速发生十分滞后,减速极快,至TTE=0时梯度为0,停止在马路停止线上(或后)
  2. 数据增强(58份真实数据 --> 3700份加强数据)

    方法描述
    Rotation(旋转)在上述{X,Y}图示中,绕序列中间点产生小幅度旋转。
    Stretch(拉伸)对于穿过(Crossing)型的序列,保持起终点不变进行拉伸;对于停止(Stop)型序列,线性拉伸与非线性拉伸皆有。
    Translation(平移)将序列沿Y维度小幅度上下平移。
  3. 衡量指标

    平局欧拉距离误差:\(ME_{lat} = {1 \over MN_p}\sum_{i=1}^{M} \sum^{k_{obs}+N_p}_{k = k_{obs}+1} ||x_k^i - \hat{x_k^i}||\)

    终点欧拉距离误差:\(FE_{lat} = {1 \over M}\sum_{i=1}^{M} ||x_{k_{obs}+N_p}^i - \hat{x_{k_{obs}+N_p}^i}||\)

  4. 实验结果

    1. 单步预测稳定性、准确性优于多步预测GP、LSTM、GP-LSTM属于轨迹多步预测,输入已知轨迹序列,输出多个预测轨迹序列;C-LSTM,Seq2Seq,attention-based Seq2Seq属于轨迹单步预测,除已知序列外,每步轨迹预测会递归迭代用于下一步轨迹预测。实验结果表明,单步预测整体上从数据稳定性和准确性均优于多步预测。
    2. 相对来说:Vanilla Seq2Seq各维度表现均最优,注意力优化效果不佳:基于LSTM的Seq2Seq模型在6中方法中表现最佳,此模型的注意力自适应权重优化呈现负优化现象。
    3. 绝对来说:Vanilla Seq2Seq模型尚存较大改进空间:一是在Hard(Cross/Stop)情况下,原始数据少,预测难度上升,预测误差显著上升;二是预测误差随预测时长显著提升(0.5 VS 1);三是考虑环境单纯,交通环境、路面状态、人交互等均尚未纳入考虑。

改进方向总结

  1. Seq2Seq models with probabilistic graphical models.
  2. Hard Crossing/Stopping: data collection & augmentation ;prediction accuracy
  3. Multiple information considered when making prediction.

相关问题

数据类别划分

  1. 引用文献中详细探讨了该数据库的收集方法和考虑因素,其中所提到的三个考虑角度并未考虑Normal-Hard这样的分类模式,这样的分类措施是否恰当还需研究。
  2. 原文中没有给出区分Normal-Hard类型的度量标准,也未提供相应的参考文献,特别是在判断Cross状态下Normal和Hard类型。

Attention-based Seq2Seq 实现完整性

根据基于注意力的Seq2Seq模型论文,编码器Encoder应为BiRNN(双向RNN模型),在本文模型中为单向的LSTM模型,其对模型的效果影响有待探究。

转载于:https://www.cnblogs.com/sinoyou/p/11181412.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值