粒子滤波学习笔记

粒子滤波学习笔记(一)

最近简单学习了粒子滤波相关内容,自己也有一些理解,写一点东西希望能对大家有帮助,如果有错误的地方,希望大家指正。
本文主要从以下几个部分介绍,第一部分简单简单介绍贝叶斯估计理论,以后陆续写其他部分。

  • 1、贝叶斯估计理论
  • 2、蒙特卡洛采样估计
  • 3、粒子滤波

1、贝叶斯估计理论

总体来说,统计学界包含两个学派:经典学派和贝叶斯学派。贝叶斯学派起步较晚,与传统的经典学派相比,贝叶斯学派有两个特点:一是将未知参数作为随机变量;二是建立先验分布。

1.1贝叶斯定理

贝叶斯定理的主要内容是:假设 z=[z1,z2,...,zm] 为独立同分布的可量测随机变量,每一个变量相对于未知参数 x 的条件概率密度 p(x|z) ,则未知参数的后验概率为

p(x|z)=p(z|x)p(x)p(z)=p(z|x)p(x)p(z|x)dx

我们对贝叶斯定理做个简单的介绍。
(1) p(z|x) 叫做似然函数,表示的是在给定参数的情况下有多大的概率产生该观测值;
(2) p(x) 表示先验概率,这一概率是根据经验产生的;
(3) p(x|z) 表示后验概率,也就是给定观测值后产生该观测值的概率有多大。
(4)对于分母 p(z) 来说,它是一个和 x 无关的量,是一个常数。

对贝叶斯定理我们可以这样理解,它是将未知参数 x 看作一个随机变量,并且取一个先验概率,如果我们没有观测参数,那么只能将使用其先验。但是如果我们不断产生观测值,我们就可以用观测值来不断地对先验进行修订。所以说贝叶斯定理是将经验知识和量测数据加以综合的过程,这也是贝叶斯理论的优越性所在。

1.2递归贝叶斯估计

为了得出递归贝叶斯滤波的规律我们做出两个假设:
(1)状态之间服从一阶Markov过程,也就是 p(xn|x0:n1)=p(xn|xn1) ;
(2)在给定状态下观测值之间相互独立。
为了表示简便,我们用 yn 表示一系列观测向量 y0:n:=[y0,...,yn]
下面是具体的推导过程:

p(xn|yn)=p(yn|xn)p(xn)p(yn)=p(yn,yn1|xn)p(xn)p(yn,yn1)=p(yn|yn1,xn)p(yn1|xn)p(xn)p(yn|yn1)p(yn1)=p(yn|yn1,xn)p(xn|yn1)p(yn1)p(xn)p(yn|yn1)p(yn1)p(xn)=p(yn|xn)p(xn|yn1)p(yn|yn1)

简单分析一下这个公式表示的意思。
Prior p(xn|yn1) 定义了模型的信息,它可以这么来计算
p(xn|yn1)=p(xn|xn1)p(xn1|yn1)dxn1

从中可以看出它和模型参数的转移概率 p(xn|xn1) 以及上一时刻的后验概率 p(xn|yn) 有关系。
Likehood 似然 p(yn|xn) 基本上决定了模型中的量测噪声的大小,因为它描述的是模型参数和观测值的关系。
Evidence 分母包含一个积分,
p(yn|yn1)=p(yn|xn)p(xn|yn1)dxn

小结

Prior 在贝叶斯递归滤波中表示的是预测,也就是利用系统模型预测从一个量测时刻到下一个量测时刻的后验概率密度函数,利用Prior的结果可以进行更新,也就是利用最新的量测值对这个后验概率进行修正,从而完成由 p(xn|yn1) p(xn|yn) 过程。可以看出这个过程类似卡尔曼滤波,利用递推的方法可以节省大量的存储空间。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值