手撕卡尔曼滤波器

手撕卡尔曼滤波器

卡尔曼滤波器(Kalman Filter),从字面意思上来看,“Filter滤波器”一词并不能很好地体现其特性。卡尔曼滤波器用一句话来说就是“Optimal Recursive Data-Processing Algorithm”,即为“最优化 递归 数字处理 算法”,它更像是一种观测器,而不是一般意义上的滤波器。卡尔曼滤波器的应用非常广泛,尤其是在导航中。它的广泛应用是因为世界中存在大量的不确定性,当我们描述一个系统时,这个不确定性主要体现在三个方面:

  1. 不存在完美的数学模型
  2. 系统的扰动不可控,也很难建模
  3. 测量传感器存在误差

递归算法

下面看一个例子,多次用同一把尺子测量同一枚硬币的直径,用 z k z_k zk 表示第k次的测量结果。由于种种误差,测量得到:
z 1 = 50.1 m m z 2 = 50.4 m m z 3 = 50.2 m m \begin{aligned} z_1=50.1mm \\ z_2=50.4mm \\ z_3=50.2mm \end{aligned} z1=50.1mmz2=50.4mmz3=50.2mm
此时如果要估计真实结果,自然而然地会想到取平均值。用 x ^ k \hat{x}_k x^k 表示第k次的估计值,可以得到:
x ^ k = 1 k ( z 1 + z 2 + ⋯ + z k ) = 1 k ( z 1 + z 2 + ⋯ + z k − 1 ) + 1 k ( z k ) = k − 1 k 1 k − 1 ( z 1 + z 2 + ⋯ + z k − 1 ) + 1 k ( z k ) = k − 1 k x ^ k − 1 + 1 k ( z k ) = x ^ k − 1 + 1 k ( z k − x ^ k − 1 ) \begin{aligned} \hat{x}_k &= \frac{1}{k}(z_1+z_2+\cdots+z_k)\\ &= \frac{1}{k}(z_1+z_2+\cdots+z_{k-1}) + \frac{1}{k}(z_k)\\ &= \frac{k-1}{k}\frac{1}{k-1}(z_1+z_2+\cdots+z_{k-1}) + \frac{1}{k}(z_k)\\ &= \frac{k-1}{k}\hat{x}_{k-1} + \frac{1}{k}(z_k)\\ &= \hat{x}_{k-1} + \frac{1}{k}(z_k-\hat{x}_{k-1}) \end{aligned} x^k=k1(z1+z2++zk)=k1(z1+z2++zk1)+k1(zk)=kk1k11(z1+z2++zk1)+k1(zk)=kk1x^k1+k1(zk)=x^k1+k1(zkx^k1)
上式中,第三行 1 k − 1 ( z 1 + z 2 + ⋯ + z k − 1 ) \frac{1}{k-1}(z_1+z_2+\cdots+z_{k-1}) k11(z1+z2++zk1) 就是 k − 1 k-1 k1 次的平均值 x ^ k − 1 \hat{x}_{k-1} x^k1

观察最后一行结论, k ↑ , 1 k − 1 → 0 , x ^ k → x ^ k − 1 k\uparrow, \frac{1}{k-1}\to0,\hat{x}_k\to\hat{x}_{k-1} k,k110,x^kx^k1 ,也就是说,随着k的增加,此时拥有了大量的数据,对估计的结果就比较有信心了,测量的结果就不是很重要了。相反,如果k比较小, 1 k − 1 \frac{1}{k-1} k11 就会比较大,测量结果 z k z_k zk 就会起到很大的作用,尤其是测量结果和估计值差距比较大的时候。

K k = 1 k − 1 K_k=\frac{1}{k-1} Kk=k11 ,则此时公式可以表示为:
x ^ k = x ^ k − 1 + K k ( z k − x ^ k − 1 ) \hat{x}_k = \hat{x}_{k-1} + K_k(z_k-\hat{x}_{k-1}) x^k=x^k1+Kk(zkx^k1)
上式表示的含义为:当前的估计值 = 上一次的估计值 + 系数 * ( 当前测量值 - 上一次的估计值 ) ,其中的 K k K_k Kk 就是卡尔曼增益/因数(Kalman Gain),通过这个公式可以看出,新的估计值 x ^ k \hat{x}_k x^k 与上一次的估计值 x ^ k − 1 \hat{x}_{k-1} x^k1 有关,上一次的又与上上次的有关,这就是一种递归思想(Recursive),这也是卡尔曼滤波器的优势,他不需要追溯很久以前的数据,只需要上一次的就可以。下面来讨论一下这个 K k K_k Kk

引入两个误差:

  1. 估计误差 e E S T e_{EST} eEST (e代表误差error,EST代表估计estimate)
  2. 测量误差 e M E A e_{MEA} eMEA (e代表误差error,MEA代表测量measurement)

K k K_k Kk 可以表示为
K k = e E S T k − 1 e E S T k − 1 + e M E A k K_k = \frac{e_{EST_{k-1}}}{e_{EST_{k-1}}+e_{MEA_{k}}} Kk=eESTk1+eMEAkeESTk1
这个公式是卡尔曼滤波中的核心公式,具体的推导后文会讲到。下面对这个公式进行讨论。在k时刻,

  1. e E S T k − 1 ≫ e M E A k e_{EST_{k-1}} \gg e_{MEA_{k}} eESTk1eMEAk K k → 1 K_k\rightarrow1 Kk1 ,此时 x ^ k = z k \hat{x}_k = z_k x^k=zk ,这说明当第k-1次的估计误差远大于第k次的测量误差时,第k次的估计值很趋近于测量值。(估计的误差大,测量的误差小,更信任测量值)
  2. e E S T k − 1 ≪ e M E A k e_{EST_{k-1}} \ll e_{MEA_{k}} eESTk1eMEAk K k → 0 K_k\rightarrow 0 Kk0 ,此时 x ^ k = x ^ k − 1 \hat{x}_k = \hat{x}_{k-1} x^k=x^k1 ,这说明当第k-1次的估计误差远小于第k次的测量误差时,第k次的估计值很趋近于测量值。(估计的误差小,测量的误差大,更信任估计值)

运用以上知识,解决一个实际问题可以分为三步:

  1. 计算卡尔曼增益 K k K_k Kk ,公式见前文
  2. 计算估算值 x ^ k \hat{x}_k x^k ,公式见前文
  3. 更新估计误差 e E S T k = ( 1 − K k ) e E S T k − 1 e_{EST_{k}} = (1-K_k)e_{EST_{k-1}} eESTk=(1Kk)eESTk1 ,此公式推导见后文。

再看前文测量硬币直径的例子,实际长度 x = 50 m m x=50mm x=50mm ,对于第一次测量:
x ^ 0 = 40 m m e E S T 0 = 5 m m z 1 = 51 m m e M E A k = 3 m m \begin{aligned} \hat{x}_0=40mm \\ e_{EST_{0}}=5mm \\ z_1=51mm\\ e_{MEA_{k}}=3mm \end{aligned} x^0=40mmeEST0=5mmz1=51mmeMEAk=3mm
估计值是是随便估计的一个值;估计误差随便给一个数;测量值是实际测量得到的;由于测量工具不变,测量误差是一个恒定值。接下来进行递归:

image-20220414223222370

蓝色是测量值 z k z_k zk ,红色为估计值 x ^ k \hat{x}_k x^k ,可以看到经过反复迭代,估计值越来越接近实际值。这就是卡尔曼滤波器的递归思想。

数学基础

数据融合

下面举例说明数据融合(Data Fusion)

分别用两个称称一个东西,得到两个结果,分别为
z 1 = 30 m m z 2 = 32 m m \begin{aligned} z_1=30mm \\ z_2=32mm \end{aligned} z1=30mmz2=32mm
两个称都有误差,两个称的标准差(Standard Deviation)分别为:
σ 1 = 2 g σ 2 = 4 g \begin{aligned} \sigma_1=2g \\ \sigma_2=4g \end{aligned} σ1=2gσ2=4g
他们均符合正态分布/高斯分布(Natural/Gaussin Distribution)

image-20220415103427679

如果用这两个结果去估计真实值 z ^ = ? \hat{z}=? z^=? ,可以用到上一节的思想,则
z ^ = z 1 + K ( z 2 − z 1 ) , k ∈ [ 0 , 1 ] k = 0 , z ^ = z 1 k = 1 , z ^ = z 2 \begin{array}{c} \hat{z} = z_{1} + K(z_2-z_{1}),k\in[0,1] \\ k=0,\hat{z}=z_1\\ k=1,\hat{z}=z_2 \end{array} z^=z1+K(z2z1),k[0,1]k=0,z^=z1k=1,z^=z2
求k使得 σ z ^ \sigma_{\hat{z}} σz^ 最小,也就是使得方差 V a r ( z ^ ) Var(\hat{z}) Var(z^) 最小
σ z ^ 2 = V a r ( z ^ ) = V a r ( z 1 + K ( z 2 − z 1 ) ) = V a r ( z 1 − K z 1 + K z 2 ) = V a r ( ( 1 − K ) z 1 + K z 2 ) = V a r ( ( 1 − K ) z 1 ) + V a r ( K z 2 ) = ( 1 − K ) 2 V a r ( z 1 ) + K 2 V a r ( z 2 ) = ( 1 − K ) 2 σ 1 2 + K 2 σ 2 2 \begin{aligned} \sigma_{\hat{z}}^2&=Var(\hat{z})\\ &=Var(z_1 + K(z_2-z_1))\\ &=Var(z_1 -Kz_1+ Kz_2)\\ &=Var((1-K)z_1+ Kz_2)\\ &=Var((1-K)z_1)+Var(Kz_2)\\ &=(1-K)^2Var(z_1)+K^2Var(z_2)\\ &=(1-K)^2\sigma_1^2+K^2\sigma_2^2\\ \end{aligned} σz^2=Var(z^)=Var(z1+K(z2z1))=Var(z1Kz1+Kz2)=Var((1K)z1+Kz2)=Var((1K)z1)+Var(Kz2)=(1K)2Var(z1)+K2Var(z2)=(1K)2σ12+K2σ22
可以看到,第四行中 ( 1 − K ) z 1 (1-K)z_1 (1K)z1 K z 2 Kz_2 Kz2 是互相独立的,因为两个称的结果不会互相影响,所以由于方差的性质可以写成两个独立的方差。要求这个式子的最小值,就要对K求导并令导数等于0。可以解出K:
d σ z ^ 2 d K = 0 − 2 ( 1 − K ) σ 1 2 + 2 K σ 2 2 = 0 K = σ 1 2 σ 1 2 + σ 2 2 = 2 2 2 2 + 4 2 = 0.2 \begin{array}{c} \frac{d\sigma_{\hat{z}}^2}{dK}=0\\ -2(1-K)\sigma_1^2+2K\sigma_2^2=0\\ K=\frac{\sigma_1^2}{\sigma_1^2+\sigma_2^2}=\frac{2^2}{2^2+4^2}=0.2 \end{array} dKdσz^2=02(1K)σ12+2Kσ22=0K=σ12+σ22σ12=22+4222=0.2
将K带入上面的式子,得到 z ^ = 30.4 \hat{z}=30.4 z^=30.4 。此时为最优解。计算此时的标准差 σ z ^ = 1.79 \sigma_{\hat{z}}=1.79 σz^=1.79 ,绘出正态分布图:

image-20220415105843056

得到比两个图形更高更瘦的图形,这个过程就叫数据融合。

协方差矩阵

协方差矩阵(Covarince Matrix)是把方差和协方差在一个矩阵中表示出来,体现了变量间的联动关系。下面举例说明:

image-20220415121131214

令身高为x,体重为y,年龄为z,分别计算平均值,方差和协方差(拿x举例):
σ x 2 = 1 3 ( ( 179 − 180.3 ) 2 + ( 187 − 180.3 ) 2 + ( 175 − 180.3 ) 2 ) = 24.89 σ x σ y = 1 3 ( ( 179 − 180.3 ) ( 74 − 75 ) + ( 187 − 180.3 ) ( 80 − 75 ) + ( 175 − 180.3 ) ( 71 − 75 ) ) = 18.7 = σ y σ x \begin{aligned} \sigma_x^2&=\frac{1}{3}((179-180.3)^2\\ &\qquad+(187-180.3)^2\\ &\qquad+(175-180.3)^2)\\ &=24.89\\ \sigma_x\sigma_y&=\frac{1}{3}((179-180.3)(74-75)\\ &\qquad+(187-180.3)(80-75)\\ &\qquad+(175-180.3)(71-75))\\ &=18.7=\sigma_y\sigma_x \end{aligned} σx2σxσy=31((179180.3)2+(187180.3)2+(175180.3)2)=24.89=31((179180.3)(7475)+(187180.3)(8075)+(175180.3)(7175))=18.7=σyσx
观察协方差的每一项,如果两个括号内都为负数,相乘为正数;两个括号内都为正数,相乘仍为正数;但一正一负相乘得到负数。所以最后加在一起的结果如果是正数,说明这两个变量的变化方向是一样的;如果是负数,说明这两个变量的变化方向是相反的。

协方差矩阵表示形式为:
P = [ σ x 2 σ x σ y σ x σ z σ y σ x σ y 2 σ y σ z σ z σ x σ z σ y σ z 2 ] P = \begin{bmatrix} \sigma_x^2 & \sigma_x\sigma_y & \sigma_x\sigma_z \\ \sigma_y\sigma_x & \sigma_y^2 & \sigma_y\sigma_z \\ \sigma_z\sigma_x & \sigma_z\sigma_y & \sigma_z^2 \end{bmatrix} P=σx2σyσxσzσxσxσyσy2σzσyσxσzσyσzσz2
如果需要编程实现,可以通过以下方法求得P(其中a为过渡矩阵)
a = [ x 1 y 1 z 1 x 2 y 2 z 2 x 3 y 3 z 3 ] − 1 3 [ 1 1 1 1 1 1 1 1 1 ] [ x 1 y 1 z 1 x 2 y 2 z 2 x 3 y 3 z 3 ] P = 1 3 a T a \begin{aligned} a & = \begin{bmatrix} x_1 & y_1 & z_1 \\ x_2 & y_2 & z_2 \\ x_3 & y_3 & z_3 \end{bmatrix}-\frac{1}{3} \begin{bmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{bmatrix} \begin{bmatrix} x_1 & y_1 & z_1 \\ x_2 & y_2 & z_2 \\ x_3 & y_3 & z_3 \end{bmatrix}\\ P & = \frac{1}{3}a^Ta \end{aligned} aP=x1x2x3y1y2y3z1z2z331111111111x1x2x3y1y2y3z1z2z3=31aTa
多取一些数据,得到协方差矩阵,可以利用协方差矩阵分析各个数据之间的关系;

从协方差矩阵中可以看到,对角线上的数为方差,这些数据比较大,说明了这些变量之间跨度比较大。剩下的数据为协方差,体重和身高的协方差比较大,说明他们是正相关的,身高增加体重也增加;而年龄和其余两者的协方差比较小,说明他们之间的相关性比较小。

状态空间方程

状态空间表达(State Space Representation),现代控制理论就是以状态空间方程为基础的。以弹簧振动阻尼系统为例:

image-20220415113931219

动态方程表达式为:
m x ¨ + B x ˙ + k x = F m\ddot{x}+B\dot{x}+kx=F mx¨+Bx˙+kx=F
将F定义为u,也就是系统的输入(Input)。将其转化成状态空间表达形式,定义两个状态(State)变量 x 1 = x x_1=x x1=x x 2 = x ˙ x_2=\dot{x} x2=x˙ ,则
x 1 ˙ = x 2 x 2 ˙ = x ¨ = 1 m u − B m x ˙ − k m x = 1 m u − B m x 2 − k m x 1 \begin{aligned} \dot{x_1}&=x_2\\ \dot{x_2}&=\ddot{x}\\ &=\frac{1}{m}u-\frac{B}{m}\dot{x}-\frac{k}{m}x\\ &=\frac{1}{m}u-\frac{B}{m}x_2-\frac{k}{m}x_1 \end{aligned} x1˙x2˙=x2=x¨=m1umBx˙mkx=m1umBx2mkx1
这样就用两个一阶微分方程表达出来了。定义两个测量(Meansurement)变量,位置 z 1 = x = x 1 z_1=x=x_1 z1=x=x1 ,速度 z 2 = x ˙ = x 2 z_2=\dot{x}=x_2 z2=x˙=x2

将上面的式子改写成矩阵形式:
[ x 1 ˙ x 2 ˙ ] = [ 0 1 − k m − B m ] [ x 1 x 2 ] + [ 0 1 m ] u [ z 1 z 2 ] = [ 1 0 0 1 ] [ x 1 x 2 ] \begin{aligned} \begin{bmatrix} \dot{x_1} \\ \dot{x_2} \end{bmatrix} & = \begin{bmatrix} 0 & 1 \\ -\frac{k}{m} & -\frac{B}{m} \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \end{bmatrix}+ \begin{bmatrix} 0 \\ \frac{1}{m} \end{bmatrix}u\\ \begin{bmatrix} z_1 \\ z_2 \end{bmatrix} & = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \end{bmatrix} \end{aligned} [x1˙x2˙][z1z2]=[0mk1mB][x1x2]+[0m1]u=[1001][x1x2]
归纳出状态空间的表达形式:
x ˙ ( t ) = A x ( t ) + B u ( t ) z ( t ) = H x ( t ) \begin{array}{l} \dot{x}(t)=Ax(t)+Bu(t)\\ z(t)=Hx(t) \end{array} x˙(t)=Ax(t)+Bu(t)z(t)=Hx(t)
这是一种连续的表达形式, x ˙ ( t ) \dot{x}(t) x˙(t) 为x对时间的导数,体现了x随时间的变化。

如果写成离散形式(本节不深入讲解离散型,只做了解),其中下标 k − 1 , k , k + 1 k-1,k,k+1 k1,k,k+1 里面的1代表一个时间单位,即为采样时间(Sample Time),这种形式体现了上一步到这一步的一种变化:
x k = A x k − 1 + B u k − 1 z k = H x k \begin{array}{l} x_k=Ax_{k-1}+Bu_{k-1}\\ z_k=Hx_k \end{array} xk=Axk1+Buk1zk=Hxk
如果增加一些开头提到的不确定性,其中 w k − 1 w_{k-1} wk1 为过程噪音(Process Noise), v k v_k vk 为测量噪音(Meansurement Noise):
x k = A x k − 1 + B u k − 1 + w k − 1 z k = H x k + v k \begin{array}{l} x_k=Ax_{k-1}+Bu_{k-1}+w_{k-1}\\ z_k=Hx_k+v_k \end{array} xk=Axk1+Buk1+wk1zk=Hxk+vk
也就是说当估计结果 x k x_k xk 不准确,测量结果 z k z_k zk 也不准确的情况下,如何估计一个精确的 x ^ k \hat{x}_k x^k ?这就是卡尔曼滤波器所要解决的问题。

卡尔曼增益数学推导

在上文的状态空间方程中, x k x_k xk 为状态变量,A为状态矩阵,B为控制矩阵, u k u_k uk 为控制, w k − 1 w_{k-1} wk1 为过程噪音, v k v_k vk 为测量噪音,其中噪声是不可测的,是系统不确定性的表现。但过程噪声可以假设其符合正态分布 P ( w ) ∼ N ( 0 , Q ) P(w)\sim N(0,Q) P(w)N(0,Q) ,其中0为期望,Q为协方差矩阵:
Q = E ( w w T ) = E ( [ w 1 w 2 ] [ w 1 w 2 ] ) = E ( [ w 1 2 w 1 w 2 w 2 w 1 w 2 2 ] ) = [ E ( w 1 2 ) E ( w 1 w 2 ) E ( w 2 w 1 ) E ( w 2 2 ) ] = [ σ w 1 2 σ w 1 σ w 2 σ w 2 σ w 1 σ w 2 2 ] \begin{aligned} Q&=E(ww^T)\\ &=E\left( \begin{bmatrix} w_1 \\ w_2 \end{bmatrix} \begin{bmatrix} w_1 & w_2 \end{bmatrix} \right)\\ &=E\left( \begin{bmatrix} w_1^2 & w_1w_2\\ w_2w_1 & w_2^2 \end{bmatrix} \right)\\ &= \begin{bmatrix} E(w_1^2) & E(w_1w_2)\\ E(w_2w_1) & E(w_2^2) \end{bmatrix}\\ &= \begin{bmatrix} \sigma_{w_1}^2 & \sigma_{w_1}\sigma_{w_2} \\ \sigma_{w_2}\sigma_{w_1} & \sigma_{w_2}^2 \end{bmatrix} \end{aligned} Q=E(wwT)=E([w1w2][w1w2])=E([w12w2w1w1w2w22])=[E(w12)E(w2w1)E(w1w2)E(w22)]=[σw12σw2σw1σw1σw2σw22]
通过Q这个协方差矩阵可以表示出过程噪声的方差,亦可以表示出过程噪声之间的关系。

对于测量噪声也同样认为符合正态分布 P ( v ) ∼ N ( 0 , R ) P(v)\sim N(0,R) P(v)N(0,R) R = E ( v v T ) R=E(vv^T) R=E(vvT) 同样为协方差矩阵,形同Q。

但建模的时候噪音是不知道的,所以我们只能测得除掉噪声其余的项,表示为 x ^ k − \hat{x}_k^- x^k ,这是一个估计值所以要加一个hat。此时我们没有做任何处理,只是根据上面的式子去掉噪声得来,所以在上面加一个负号,代表先验估计。
x ^ k − = A x ^ k − 1 + B u k − 1 z k = H x k → x ^ k m e a = H − 1 z k \begin{array}{l} \hat{x}_k^-=A\hat{x}_{k-1}+Bu_{k-1}\\ z_k=Hx_k \to \hat{x}_{k_{mea}}=H^{-1}z_k \end{array} x^k=Ax^k1+Buk1zk=Hxkx^kmea=H1zk
上式中第一行 x ^ k − \hat{x}_k^- x^k 为算出来的结果,第二行 x ^ k m e a \hat{x}_{k_{mea}} x^kmea 为测出来的结果,但他们都不具备测量噪声这一项,他们都是不太准确的。这时可以运用卡尔曼滤波器通过两个不太准确的结果得到一个准确的结果。

回忆之前数据融合的概念,对于最终的估计值, x ^ k \hat{x}_k x^k (后验估计) 可以表示为:
x ^ k = x ^ k − + G ( H − 1 z k − x ^ k − ) , G ∈ [ 0 , 1 ] \begin{array}{l} \hat{x}_k=\hat{x}_k^- + G(H^{-1}z_k-\hat{x}_k^-),G\in[0,1]\\ \end{array} x^k=x^k+G(H1zkx^k),G[0,1]

  • G = 0 G=0 G=0 x ^ k = x ^ k − \hat{x}_k=\hat{x}_k^- x^k=x^k ,此时更相信计算结果
  • G = 1 G=1 G=1 x ^ k = H − 1 z k \hat{x}_k=H^{-1}z_k x^k=H1zk ,此时更相信测量结果

在许多教材中会令 G = K k H G=K_kH G=KkH ,卡尔曼滤波器可以表示为:
x ^ k = x ^ k − + K k ( z k − H x ^ k − ) , K k ∈ [ 0 , H − 1 ] \begin{array}{l} \hat{x}_k=\hat{x}_k^- + K_k(z_k-H\hat{x}_k^-),K_k\in[0,H^{-1}]\\ \end{array} x^k=x^k+Kk(zkHx^k),Kk[0,H1]

  • K k = 0 K_k=0 Kk=0 x ^ k = x ^ k − \hat{x}_k=\hat{x}_k^- x^k=x^k ,此时更相信计算结果

  • K k = H − 1 K_k=H^{-1} Kk=H1 x ^ k = H − 1 z k \hat{x}_k=H^{-1}z_k x^k=H1zk ,此时更相信测量结果

接下来的目标就是寻找 K k K_k Kk ,使得误差最小,也就是说使得估计值 x ^ k \hat{x}_k x^k 趋近于实际值 x k x_k xk 。很明显, K k K_k Kk 的取值与计算误差测量误差息息相关,当测量误差特别大时会更相信计算出来的结果,当计算误差特别大时会更相信测量出来的结果。

令误差 e k = x k − x ^ k e_k=x_k-\hat{x}_k ek=xkx^k ,其同样符合正态分布 P ( e k ) ∼ N ( 0 , P ) P(e_k)\sim N(0,P) P(ek)N(0,P)
P = E ( e e T ) = [ σ e 1 2 σ e 1 σ e 2 σ e 2 σ e 1 σ e 2 2 ] \begin{aligned} P=E(ee^T)= \begin{bmatrix} \sigma_{e_1}^2 & \sigma_{e_1}\sigma_{e_2} \\ \sigma_{e_2}\sigma_{e_1} & \sigma_{e_2}^2 \end{bmatrix} \end{aligned} P=E(eeT)=[σe12σe2σe1σe1σe2σe22]
如果新估计出的 x k x_k xk 距离实际值越小,说明误差的方差越小,说明越接近期望值0。而方差之和为P的迹 t r ( P ) = σ e 1 2 + σ e 2 2 tr(P)=\sigma_{e_1}^2+\sigma_{e_2}^2 tr(P)=σe12+σe22 ,所以要想让方差最小,接下来的目标就变成了选取合适的 K k K_k Kk ,使得协方差矩阵P的迹最小
P = E ( e e T ) = E ( ( x k − x ^ k ) ( x k − x ^ k ) T ) \begin{aligned} P&=E\left(ee^T\right)\\ &=E\left( \left(x_k-\hat{x}_k\right)\left(x_k-\hat{x}_k\right)^T \right) \end{aligned} P=E(eeT)=E((xkx^k)(xkx^k)T)

下面求 x k − x ^ k x_k-\hat{x}_k xkx^k ,其中的 z k z_k zk 是真实测量的结果,所以 z k = H x k + v k z_k=Hx_k+v_k zk=Hxk+vk 。因为 e k = x k − x ^ k e_k=x_k-\hat{x}_k ek=xkx^k ,所以可以定义先验误差 e k − = x k − x ^ k − e_k^-=x_k-\hat{x}_k^- ek=xkx^k

x k − x ^ k = x k − ( x ^ k − + K k ( z k − H x ^ k − ) ) = ( I − K k H ) ( x k − x ^ k − ) − K k v k = ( I − K k H ) e k − − K k v k \begin{aligned} x_k-\hat{x}_k&=x_k-(\hat{x}_k^- + K_k(z_k-H\hat{x}_k^-))\\ &=(I-K_kH)(x_k-\hat{x}_k^-)-K_kv_k \\ &=(I-K_kH)e_k^--K_kv_k \end{aligned} xkx^k=xk(x^k+Kk(zkHx^k))=(IKkH)(xkx^k)Kkvk=(IKkH)ekKkvk

前文提到, e k − e_k^- ek e k − e_k^- ek 的方差都是0,且令先验误差的协方差矩阵 P k − = E ( e k − e k − T ) P_k^-=E(e_k^-{e_k^-}^T) Pk=E(ekekT) 。此时第k步的 P k P_k Pk 可以整理为
P k = E ( ( x k − x ^ k ) ( x k − x ^ k ) T ) = E ( ( ( I − K k H ) e k − − K k v k ) ( ( I − K k H ) e k − − K k v k ) T ) = P k − − K k H P k − − ( K k H P k − ) T + K k H P k − H T K k T + K k R K k T \begin{aligned} P_k&=E\left( \left(x_k-\hat{x}_k\right)\left(x_k-\hat{x}_k\right)^T \right)\\ &=E\left( \left(\left(I-K_kH\right)e_k^--K_kv_k\right)\left(\left(I-K_kH\right)e_k^--K_kv_k\right)^T \right)\\ &=P_k^--K_kHP_k^--(K_kHP_k^-)^T+K_kHP_k^-H^TK_k^T+K_kRK_k^T \end{aligned} Pk=E((xkx^k)(xkx^k)T)=E(((IKkH)ekKkvk)((IKkH)ekKkvk)T)=PkKkHPk(KkHPk)T+KkHPkHTKkT+KkRKkT
此时可以计算 P k P_k Pk 的迹
t r ( P k ) = t r ( P k − ) − 2 t r ( K k H P k − ) + t r ( K k H P k − H T K k T ) + t r ( K k R K k T ) \begin{aligned} tr(P_k)&=tr(P_k^-)-2tr(K_kHP_k^-)+tr(K_kHP_k^-H^TK_k^T)+tr(K_kRK_k^T) \end{aligned} tr(Pk)=tr(Pk)2tr(KkHPk)+tr(KkHPkHTKkT)+tr(KkRKkT)
寻找k使得 t r ( P k ) tr(P_k) tr(Pk) 有最小值,对k求导并寻找极值点(求导法则略)
d t r ( P k ) d k = 0 − 2 ( H P k − ) T + 2 K k H P k − H T + 2 K k R = 0 \begin{aligned} \frac{dtr(P_k)}{dk}=0-2(HP_k^-)^T+2K_kHP_k^-H^T+2K_kR=0\\ \end{aligned} dkdtr(Pk)=02(HPk)T+2KkHPkHT+2KkR=0

K k = P k − H T H P k − H T + R \begin{aligned} K_k=\frac{P_k^-H^T}{HP_k^-H^T+R}\\ \end{aligned} Kk=HPkHT+RPkHT

至此,我们推出的 K k K_k Kk 就是卡尔曼增益。这也是卡尔曼滤波器中最核心的公式。

其中的R是测量噪声的协方差矩阵,R的大小代表了测量噪声方差的大小,也就是 测量噪声的大小。分析 K k K_k Kk

  • 当R很大, K k → 0 K_k\to0 Kk0 x ^ k = x ^ k − \hat{x}_k=\hat{x}_k^- x^k=x^k ,此时更相信计算结果
  • 当R很小, K k = P k − H T H P k − H T = H − 1 , x ^ k = H − 1 z k K_k=\frac{P_k^-H^T}{HP_k^-H^T}=H^{-1},\hat{x}_k=H^{-1}z_k Kk=HPkHTPkHT=H1,x^k=H1zk ,此时更相信测量结果

误差协方差矩阵数学推导

现在来推导卡尔曼增益 K k K_k Kk 中的先验误差的协方差矩阵 P k − P_k^- Pk

根据前文的结论,我们可以得到真实值 x k x_k xk ,先验估计 x ^ k − \hat{x}_k^- x^k ,后验估计 x ^ k \hat{x}_k x^k ,卡尔曼增益 K k K_k Kk
x k = A x k − 1 + B u k − 1 + w k − 1 x ^ k − = A x ^ k − 1 + B u k − 1 x ^ k = x ^ k − + K k ( z k − H x ^ k − ) K k = P k − H T H P k − H T + R \begin{aligned} x_k & = Ax_{k-1}+Bu_{k-1}+w_{k-1}\\ \hat{x}_k^- & = A\hat{x}_{k-1}+Bu_{k-1}\\ \hat{x}_k & = \hat{x}_k^- + K_k(z_k-H\hat{x}_k^-)\\ K_k & = \frac{P_k^-H^T}{HP_k^-H^T+R} \end{aligned} xkx^kx^kKk=Axk1+Buk1+wk1=Ax^k1+Buk1=x^k+Kk(zkHx^k)=HPkHT+RPkHT
根据 P k − P_k^- Pk 的定义, P k − = E ( e k − e k − T ) P_k^-=E(e_k^-{e_k^-}^T) Pk=E(ekekT) ,其中误差为真实值减估计值,
e k − = x k − x ^ k − = A x k − 1 + B u k − 1 + w k − 1 − A x ^ k − 1 − B u k − 1 = A ( x k − 1 − x ^ k − 1 − ) + w k − 1 = A e k − 1 + w k − 1 \begin{aligned} e_k^-&=x_k-\hat{x}_k^-\\ &=Ax_{k-1}+Bu_{k-1}+w_{k-1}-A\hat{x}_{k-1}-Bu_{k-1}\\ &=A(x_{k-1}-\hat{x}_{k-1}^-)+w_{k-1}\\ &=Ae_{k-1}+w_{k-1} \end{aligned} ek=xkx^k=Axk1+Buk1+wk1Ax^k1Buk1=A(xk1x^k1)+wk1=Aek1+wk1
P k − P_k^- Pk 可以整理为:
P k − = E ( e k − e k − T ) = E ( ( A e k − 1 + w k − 1 ) ( A e k − 1 + w k − 1 ) T ) = A E ( e k − 1 − e k − 1 − T ) A T + E ( w k − 1 − w k − 1 − T ) = A P k − 1 A T + Q \begin{aligned} P_k^-&=E(e_k^-{e_k^-}^T)\\ &=E\left( (Ae_{k-1}+w_{k-1})(Ae_{k-1}+w_{k-1})^T \right)\\ &=AE(e_{k-1}^-{e_{k-1}^-}^T)A^T+E(w_{k-1}^-{w_{k-1}^-}^T)\\ &=AP_{k-1}A^T+Q \end{aligned} Pk=E(ekekT)=E((Aek1+wk1)(Aek1+wk1)T)=AE(ek1ek1T)AT+E(wk1wk1T)=APk1AT+Q
根据上式就可以利用卡尔曼滤波器估计状态变量的值了。分为以下步骤

  • 预测

    1. 先验估计

      x ^ k − = A x ^ k − 1 + B u k − 1 \hat{x}_k^-=A\hat{x}_{k-1}+Bu_{k-1} x^k=Ax^k1+Buk1

    2. 先验误差协方差矩阵

      P k − = A P k − 1 A T + Q P_k^-=AP_{k-1}A^T+Q Pk=APk1AT+Q

  • 校正

    1. 卡尔曼增益

      K k = P k − H T H P k − H T + R K_k=\frac{P_k^-H^T}{HP_k^-H^T+R} Kk=HPkHT+RPkHT

    2. 后验估计

      x ^ k = x ^ k − + K k ( z k − H x ^ k − ) \hat{x}_k=\hat{x}_k^- + K_k(z_k-H\hat{x}_k^-) x^k=x^k+Kk(zkHx^k)

根据以上四步就可以得到最优估计值,也就是后验估计值 x ^ k \hat{x}_k x^k

先验误差协方差矩阵 P k − P_k^- Pk 中包含上一次的 P k − 1 − P_{k-1}^- Pk1 项,每次矫正厚需要更新先验误差协方差矩阵。将卡尔曼增益带入可以求得:
P k = P k − − K k H P k − − ( K k H P k − ) T + K k H P k − H T K k T + K k R K k T = ( I − K k H ) P k − \begin{aligned} P_k&=P_k^--K_kHP_k^--(K_kHP_k^-)^T+K_kHP_k^-H^TK_k^T+K_kRK_k^T\\ &=(I-K_kH)P_k^- \end{aligned} Pk=PkKkHPk(KkHPk)T+KkHPkHTKkT+KkRKkT=(IKkH)Pk
所以第五步为

  1. 更新先验误差协方差

    P k = ( I − K k H ) P k − P_k=(I-K_kH)P_k^- Pk=(IKkH)Pk

以上就是完整的卡尔曼滤波器的五个公式。

可以看到,每次预测都会用到上一次的结果,所以在最开始要赋予初值 x ^ 0 \hat{x}_0 x^0 P 0 P_0 P0 ,初值的选取会在下文提及。

扩展卡尔曼滤波

前文讲到,卡尔曼滤波器在线性系统里可以得到最优估计值。对于非线性系统,可以将其线性化再进行处理,这种滤波器叫做扩展卡尔曼滤波器(Extend Kalman Filter),简称EKF。

线性系统可以表示为:
x k = A x k − 1 + B u k − 1 + w k − 1 z k = H x k + v k \begin{array}{l} x_k=Ax_{k-1}+Bu_{k-1}+w_{k-1}\\ z_k=Hx_k+v_k \end{array} xk=Axk1+Buk1+wk1zk=Hxk+vk
而非线性系统,无法用线性的状态空间方程表达,而是可以表示为:
x k = f ( x k − 1 , u k − 1 , w k − 1 ) z k = h ( x k , v k ) \begin{array}{l} x_k=f(x_{k-1},u_{k-1},w_{k-1})\\ z_k=h(x_k,v_k) \end{array} xk=f(xk1,uk1,wk1)zk=h(xk,vk)
其中f为过程方程,h为测量方程,这是两个非线性的表达形式。注意无论是线性还是非线性,误差v和w都是符合正态分布的。但正态分布的随机变量通过非线性系统以后就不再是正态分布的了。所以如果还想对非线性系统进行卡尔曼滤波,需要对其线性化(Linearization),用泰勒级数展开,不赘述过程只给出结论:
f ( x ) = f ( x 0 ) + ∂ f ∂ x ( x − x 0 ) \begin{aligned} f(x)=f(x_0)+\frac{\partial f}{\partial x}(x-x_0) \end{aligned} f(x)=f(x0)+xf(xx0)
如果需要线性化一个系统,需要找到一个点(Operating Point),在这个点附近进行线性化。对于非线性系统来说最好的线性化的点就是它的真实点,但由于系统有误差,无法知道真实值,所以无法在真实点进行线性化,所以过程方程 f ( x k ) f(x_k) f(xk) 只能 x ^ k − 1 \hat{x}_{k-1} x^k1 附近,也就是k-1时刻(上一次)的后验估计附近进行线性化。

由于不知道误差 w k − 1 w_{k-1} wk1 是多少,所以将其假设为0,定义 f ( x ^ k − 1 , u k − 1 , 0 ) = x ~ k f(\hat{x}_{k-1},u_{k-1},0)=\tilde x_k f(x^k1,uk1,0)=x~k ,可以得到
x k = f ( x ^ k − 1 , u k − 1 , 0 ) + A k ( x k − 1 − x ^ k − 1 ) + W k w k − 1 A k = ∂ f ∂ x ∣ x ^ k − 1 , u k − 1 W k = ∂ f ∂ w ∣ x ^ k − 1 , u k − 1 \begin{aligned} x_k & = f(\hat{x}_{k-1},u_{k-1},0)+A_k(x_{k-1}-\hat{x}_{k-1})+W_kw_{k-1}\\ A_k &= \frac{\partial f}{\partial x}|_{\hat{x}_{k-1},u_{k-1}}\qquad W_k = \frac{\partial f}{\partial w}|_{\hat{x}_{k-1},u_{k-1}} \end{aligned} xkAk=f(x^k1,uk1,0)+Ak(xk1x^k1)+Wkwk1=xfx^k1,uk1Wk=wfx^k1,uk1
例:
x 1 = x 1 + s i n x 2 = f 1 x 2 = x 1 2 = f 2 A k = ∂ f ∂ x ∣ x 1 ^ k − 1 , x 2 ^ k − 1 = [ ∂ f 1 ∂ x 1 ∂ f 1 ∂ x 2 ∂ f 2 ∂ x 1 ∂ f 2 ∂ x 2 ] ∣ x 1 ^ k − 1 , x 2 ^ k − 1 = [ 1 c o s x 2 2 x 1 0 ] ∣ x 1 ^ k − 1 , x 2 ^ k − 1 = [ 1 c o s x 2 ^ k − 1 2 x 1 ^ k − 1 0 ] \begin{aligned} x_1&=x_1+sinx_2=f_1\\ x_2&=x_1^2=f_2\\ A_k&=\frac{\partial f}{\partial x}|_{\hat{x_1}_{k-1},\hat{x_2}_{k-1}}\\&= \begin{bmatrix} \frac{\partial f_1}{\partial x_1} & \frac{\partial f_1}{\partial x_2} \\ \frac{\partial f_2}{\partial x_1} & \frac{\partial f_2}{\partial x_2} \end{bmatrix}|_{\hat{x_1}_{k-1},\hat{x_2}_{k-1}}\\&= \begin{bmatrix} 1 & cosx_2 \\ 2x_1 & 0 \end{bmatrix}|_{\hat{x_1}_{k-1},\hat{x_2}_{k-1}}\\&= \begin{bmatrix} 1 & cos\hat{x_2}_{k-1} \\ 2\hat{x_1}_{k-1} & 0 \end{bmatrix} \end{aligned} x1x2Ak=x1+sinx2=f1=x12=f2=xfx1^k1,x2^k1=[x1f1x1f2x2f1x2f2]x1^k1,x2^k1=[12x1cosx20]x1^k1,x2^k1=[12x1^k1cosx2^k10]
可以看出,A矩阵随着K的变化而变化,所以每次要重新计算A矩阵。

同理对于测量方程, z k z_k zk x ~ k \tilde x_k x~k 附近进行线性化。由于不知道误差 v k v_k vk ,所以将其假设为0,定义 h ( x ^ k , 0 ) = z ~ k h(\hat{x}_k,0)=\tilde z_k h(x^k,0)=z~k
z k = h ( x ~ , 0 ) + H k ( x k − x ~ k ) + V k v k H k = ∂ h ∂ x ∣ x ^ k V k = ∂ h ∂ v ∣ x ^ k \begin{aligned} z_k&=h(\tilde x,0)+H_k(x_k-\tilde{x}_k)+V_kv_k\\ H_k&=\frac{\partial h}{\partial x}|_{\hat{x}_k}\qquad V_k=\frac{\partial h}{\partial v}|_{\hat{x}_k}\\ \end{aligned} zkHk=h(x~,0)+Hk(xkx~k)+Vkvk=xhx^kVk=vhx^k
这样就把非线性系统线性化了:
x k = x ~ k + A k ( x k − 1 − x ^ k − 1 ) + W k w k − 1 z k = z ~ k + H ( x k − x ~ k ) + V v k \begin{aligned} x_k&=\tilde x_k+A_k(x_{k-1}-\hat{x}_{k-1})+W_kw_{k-1}\\ z_k&=\tilde z_k+H(x_k-\tilde{x}_k)+Vv_k \end{aligned} xkzk=x~k+Ak(xk1x^k1)+Wkwk1=z~k+H(xkx~k)+Vvk
其中的 W k w k − 1 W_kw_{k-1} Wkwk1 V v k Vv_k Vvk 也都是正态分布( W Q W T WQW^T WQWT 相当于矩阵中W的平方):
P ( w ) ∼ N ( 0 , R ) P ( W w k − 1 ) ∼ N ( 0 , W Q W T ) P ( V v k ) ∼ N ( 0 , V R V T ) \begin{aligned} P(w) &\sim N(0,R)\\ P(Ww_{k-1}) &\sim N(0,WQW^T)\\ P(Vv_k) &\sim N(0,VRV^T) \end{aligned} P(w)P(Wwk1)P(Vvk)N(0,R)N(0,WQWT)N(0,VRVT)
将卡尔曼滤波器的线性化部分替换成对应非线性的部分,就可以得到扩展卡尔曼滤波器的五个公式:

  • 预测

    1. 先验估计

      x ^ k − = f ( x ^ k − 1 , u k − 1 , 0 ) \hat{x}_k^-=f(\hat{x}_{k-1},u_{k-1},0) x^k=f(x^k1,uk1,0)

    2. 先验误差协方差矩阵

      P k − = A P k − 1 A T + W Q W T P_k^-=AP_{k-1}A^T+WQW^T Pk=APk1AT+WQWT

  • 校正

    1. 卡尔曼增益

      K k = P k − H T H P k − H T + V R V T K_k=\frac{P_k^-H^T}{HP_k^-H^T+VRV^T} Kk=HPkHT+VRVTPkHT

    2. 后验估计

      x ^ k = x ^ k − + K k ( z k − h ( x ^ k , 0 ) ) \hat{x}_k=\hat{x}_k^- + K_k(z_k-h(\hat{x}_k,0)) x^k=x^k+Kk(zkh(x^k,0))

  1. 更新先验误差协方差

    P k = ( I − K k H ) P k − P_k=(I-K_kH)P_k^- Pk=(IKkH)Pk

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

范子琦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值