粒子滤波器理论知识和核心思想

2.1.1 概述

l  是递归贝叶斯滤波的一种实现

l  以高计算量为代价换取能表示任何一种分布形式

l  用随机样本表示,用一组加权样本表示后验

l  在局部化的背景下,粒子根据运动模型进行传播,然后根据观察结果的可能性对它们进行加权,在重新采样的步骤中,新粒子的绘制概率与观察到的可能性成正比

l  从存储成本和对不断变化的信号特性的快速适应的角度来看,可以实现数据到达时进行实时处理

l  用于对非线性( nonlinear )非高斯(non-Gaussian)模型的估计

 

2.1.2 粒子滤波器核心思想

用测量更新权重,根据权重来重采样,用模型来在空间转移粒子。

 

2.1.3 目标跟踪问题/状态空间模型

h表示对真实值x的一种有规律的扭曲,所以观测是扭曲过的真实加上噪声。

关于系统模型:为什么只用系统模型不能完全表征目标的方位?--》因为由噪声:在GPS中可以理解为汽车的飘移或者因为违停而被脱走的汽车(绑架机器人)。

说到噪声,这里提一下最小二乘的思想:对于线性模型: y=h*x+v , 很自然的想到,我们要想获得最准确的估计值,我们可以求Σ(y-h*x)^2,当它达到最小时,我们的估计值最接近真实值,这里可以理解为一种对(向量)x的遍历,然后让真实值和我们的观测相匹配。

2.1.4. 卡尔曼滤波器的局限

卡尔曼滤波器利用了高斯分布是共轭分布的性质,或者说高斯分布是一个能被参数化的分布,粒子滤波器是对非参数化分布的一种表示形式。当模型和数据是非线性时,用卡尔曼滤波器会得到一些奇怪的非高斯分布。一些算法可以将非线性系统投影成线性系统。

2.1.5. 蒙特卡洛方法(Monte Carlo method)

蒙特卡洛方法是一种对随机变量数字特征的估计方法,可以简单理解为他是在样点和参数之间的一种转换:

从概率分布产生样点《——》从样点建立参数分布

 

2.1.6 概率质量函数(Probability mass function)

正因为这样才能代表非高斯分布——那些不能用公式准确描述形容的分布,通过散点避免了线性的问题。

2.1.7 重要性采样( Importance Sampling )

核心思想:形容如何给点赋予权值。

Q是已知的分布,也叫重要性概率密度函数。

权重的积分为1(归一化),粒子点数越多,对概率的拟合程度越好,当点数无限多时,概率质量分布PMF就是概率分布PDF了。

我们知道粒子滤波器用加权粒子来表示概率分布,那么我们如何获得这些粒子呢?

如果是某分布高斯分布,由于它是参数化的方法,会有其专门的生成算法,比如想生成10个符合标准正态分布N~(0,1)的粒子,可以用matlab函数: 1*randn(1,10);

那其他分布呢?我们这时就用到了importance sampling

通过产生一个已知的参数化分布,然后考虑这个已知的参数分布和未知非参数化分布(目标)的差异——即是权重,具体做法是:

权重w(i)=非参数化分布在某处的值p(i)/参数化已知分布对应的值q(i)

这样用参数化已知分布*权重即是非参数化目标分布对应的概率密度(或者说是分布),所以以这种方法可以生成对应分布的点。

权重相当于对已知概率分布进行变形。

对于目标运动模型,我们可以基于运动和观察,通过预测步骤从这个容易发生样本参数化分布q中抽取样本,我可以很。

通过系统运动模型和观测模型,预测(prediction)通过系统运动模型,从容易建立样点、已知的参数分布产生点;然后用观测方程来作更正(correction)

W(tj)=target(tj)/proposal(tj),这里tj=ki,k次i个,重采样就是要利用大权重(概率)的点来生成下一次的点,而舍弃那些权重小的点。

简单来说,就是通过已知参数分布(高斯)来生成点,然后根据非参数分布的对应点的PMF和高斯对应位置的PDF之间的差异(权重w)来给生成的这些点来赋值,此时要注意对应关系。

2.1.8 重要密度函数q的选择(Good Choice of Importance Density)

重要密度函数的作用:概率转移、后验搬移,可以理解为一种对概率密度(点的权重)刷新的方法。

选择重要性概率密度函数的一个标准是使得粒子权值{w(k)(i)}(i=1:N)的方差最小,这表示的是“不确定中的确定性”的含义。

通常可以选择状态变量的转移概率密度函数p(x(k) | x(k-1))作为重要性概率密度函数q,此时粒子的权值是:

w(k)(i) = w(k-1)(i) * p(y(k) | x(k)(i))

这个式子中的w是权值,p可以理解为贝叶斯公式中的似然函数,这里是用围绕观测y产生的“似然函数”将对应粒子的权值进行刷新。

因此通过q围绕着观测y生成的,而w衡量了q与通过系统运动模型生成的p的关系,可以近似理解为他俩越接近的点的权值越大.

2.1.9 重采样方法(Resampling)

核心思想:让我们的概率密度分布更加紧凑地分布于可能性更大地点上.

需要重采样是因为本质上是因为我们的点数是有限的(由于计算机的计算能力有限,我们只能表示有限个点),当有些粒子去了概率为0(权值低)的区域时,我们就认为它们不好(Bad),所以我们应该将Bad点舍弃,而保留那些在概率高的(权值高的)区域的点,并且新生成的点被赋予相同权值,然后开始下一次递归。这就是所谓的适者生存——“survival of the fittest principle”.

如果点数无穷、计算能力无穷的话就不存在resample,因为假设只有1%的点是有效点的话,有效点的数量为(0.01*∞)=∞,依旧能保持点数的丰富性,而点数有限。而如果计算能力有限、点数有限还不重采样的话,那么就无法长时间分析系统(跟踪目标),因为这种情况下粒子滤波器会发散,发散的原因是误差积累,每一次进行计算生成点时都会产生误差,这些误差会积累并且不可逆(无法恢复),除非有无限个点。

举个例子:考虑函数y=x^100,若x是连续的话,则点数也连续,即不存在误差(可以认为连续情况属于一种遍历,把有噪声作用的情况也遍历了),而若x是离散的话,本来x=2处的点对应y=2^100,这时有了0.1的误差,y=(2.1)^100,这种误差是非常大的,而且你下一次计算时还会有新误差,这两次误差一积累,就会造成更大的误差。

2.1.10粒子退化(sample impoverishment)

粒子退化与权值退化的区别:权值退化是说计算量的问题,减少无效计算,而粒子退化是形容多样性。

 

2.2 仿真实验

2.2.1 由先验知识而获得初始粒子的分布和统计特性条形图

100个粒子

1000个粒子

2.2.2 每次(3次)迭代时的粒子分布(小黑点)、目标真实位置(大红点)、估计位置(大绿点)、重采样后的点(小红点)

 

2.2.3 根据状态空间方程,目标真实运动轨迹(蓝)和我们估计的轨迹(红)

100个粒子

1000个粒子

2000个粒子

 

结论:从估计的结果可见,随着粒子数目的增加,估计的准确性提高,估计误差越来越小,这是通过增加计算量而换来的准确性。

 

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
重采样是粒子滤波算法中的一个重要步骤,用于解决粒子权重退化的问题。在粒子滤波算法中,每个粒子都有一个权重,用于表示该粒子与真实状态的匹配程度。在每次迭代中,根据观测数据更新粒子的权重。然而,由于测量误差和模型不确定性的存在,某些粒子的权重会变得非常小,甚至接近于零,而其他粒子的权重则会变得非常大。这种权重不平衡会导致粒子滤波算法的性能下降。 为了解决这个问题,重采样步骤被引入到粒子滤波算法中。重采样的目的是根据粒子的权重重新选择一组新的粒子,使得权重较大的粒子被保留,而权重较小的粒子被剔除。重采样过程可以看作是一种有放回的抽样过程,其中每个粒子的抽样概率与其权重成正比。通过重采样,可以保持粒子的多样性,并且使得权重较大的粒子更好地代表真实状态。 正则化粒子滤波(PF)是一种将高斯滤波和粒子滤波结合的方法,也被称为高斯粒子滤波(GPF)。在正则化粒子滤波中,后验分布被近似为高斯分布,而不是使用离散的粒子表示。这种方法的优势在于,通过使用高斯分布来近似后验分布,可以处理更多的非线性动态系统问题,并且不会出现粒子权重退化的问题,因此不需要进行重采样操作。这样可以降低算法的计算量和复杂度。 总结起来,重采样是粒子滤波算法中解决粒子权重退化问题的一种方法,而正则化粒子滤波是一种将高斯滤波和粒子滤波结合的方法,用于处理非线性动态系统问题并避免粒子退化问题。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* *2* [通俗易懂的粒子滤波算法(PF)](https://blog.csdn.net/Mason_Mao/article/details/80994874)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [粒子滤波总结(摘来总结)](https://blog.csdn.net/gws1229/article/details/9792515)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值