VSLAM::[手写VIO_课堂笔记]第四讲(上)_基于滑动窗口算法的VIO系统原理

1. 第四讲(上)_基于滑动窗口算法的VIO系统原理

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JJqPVSxi-1581429638383)(imgs/2020-02-10-22-04-14.png)]

1.1. 高斯分布到信息矩阵

1.1.1. SLAM问题的模型

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Q5pFUzyP-1581429638384)(imgs/2020-02-10-22-03-54.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XOnrimff-1581429638384)(imgs/2020-02-10-22-04-27.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-K4zMZh1X-1581429638385)(imgs/2020-02-10-22-28-14.png)]

1.1.2. 举例

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-62sxGEFc-1581429638385)(imgs/2020-02-10-22-34-29.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-KV2up6fi-1581429638386)(imgs/2020-02-10-22-35-03.png)]

  • 上面省略了一些步骤
    ∑ 11 = C o n v ( x 1 , x 1 ) = E ( [ x 1 − E ( x 1 ) ] 2 ) \begin{aligned} \sum_{11}=Conv(x_1,x_1)=E([x_1-E(x_1)]^2) \end{aligned} 11=Conv(x1,x1)=E([x1E(x1)]2)

又因为:
E ( x 1 ) = E ( w 1 v 2 + v 1 ) = w 1 E ( v 2 ) + E ( v 1 ) E(x_1)=E(w_1 v_2+v_1)=w_1 E(v_2)+E(v_1) E(x1)=E(w1v2+v1)=w1E(v2)+E(v1)
v 1 v_1 v1 v 2 v_2 v2都是0均值正态分布,所以
E ( x 1 ) = E ( w 1 v 2 + v 1 ) = w 1 E ( v 2 ) + E ( v 1 ) = 0 E(x_1)=E(w_1 v_2+v_1)=w_1 E(v_2)+E(v_1)=0 E(x1)=E(w1v2+v1)=w1E(v2)+E(v1)=0
所以:
∑ 11 = C o n v ( x 1 , x 1 ) = E ( [ x 1 − E ( x 1 ) ] 2 ) = E ( [ x 1 ] 2 ) \sum_{11}=Conv(x_1,x_1)=E([x_1-E(x_1)]^2)=E([x_1]^2) 11=Conv(x1,x1)=E([x1E(x1)]2)=E([x1]2)
最终:
∑ 11 = C o n v ( x 1 , x 1 ) = E ( [ x 1 − E ( x 1 ) ] 2 ) = E ( [ x 1 ] ) = w 1 2 E ( v 2 2 ) + 2 w 1 E ( v 1 v 2 ) + E ( v 1 2 ) = w 1 2 [ E ( v 2 2 ) − E ( v 2 ) 2 ] + 0 + [ E ( v 1 2 ) − E ( v 1 ) 2 ] = w 1 2 σ 2 2 + σ 1 2 \begin{aligned} \sum_{11}=Conv(x_1,x_1)&=E([x_1-E(x_1)]^2) \\ &=E([x_1]) \\ &=w_1^2E(v_2^2)+2w_1E(v_1v_2)+E(v_1^2) \\ &=w_1^2[E(v_2^2)-E(v_2)^2]+0+[E(v_1^2)-E(v_1)^2] \\ &=w_1^2\sigma_2^2+\sigma_1^2 \end{aligned} 11=Conv(x1,x1)=E([x1E(x1)]2)=E([x1])=w12E(v22)+2w1E(v1v2)+E(v12)=w12[E(v22)E(v2)2]+0+[E(v12)E(v1)2]=w12σ22+σ12

下面是关于期望\方差\协方差的一些回顾:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nsGFVoIA-1581429638386)(imgs/2020-02-11-09-11-53.png)]
协方差矩阵
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-zjbGuOaC-1581429638386)(imgs/2020-02-11-09-13-41.png)]

以上参考自:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7cjIi8tf-1581429638387)(imgs/2020-02-11-09-18-28.png)]

注意:

  • 上面的 p ( x 1 , x 2 , x 3 ) = p ( x 2 ) p ( x 1 ∣ x 2 ) p ( x 3 ∣ x 2 ) \color{red}{p(x_1,x_2,x_3)=p(x_2)p(x_1|x_2)p(x_3|x_2)} p(x1,x2,x3)=p(x2)p(x1x2)p(x3x2)是与给出的例子结合起来的, 例子是有室外的温度(即变量 x 2 x_2 x2), 而房间1和房间3的温度是分别仅与室外温度 x 2 x_2 x2相关.

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-fT8TQpBP-1581429638387)(imgs/2020-02-11-09-21-10.png)]

一些特性

  1. 如果协方差矩阵中,非对角元素 ∑ i j > 0 \sum_{ij}>0 ij>0表示两个变量正相关.
  2. 在信息矩阵(协方差矩阵的逆)中,对应的非对角元素 ∑ i j < 0 \sum_{ij}<0 ij<0 ∑ i j = 0 \sum_{ij}=0 ij=0. 如 Λ 12 < 0 \Lambda_{12}<0 Λ12<0则表示在变量 x 3 x_3 x3发生(确定)的条件下,元素 x 1 x_1 x1 x 2 x_2 x2是正相关的.

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-1DhHSO7X-1581429638388)(imgs/2020-02-11-09-24-37.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-i7pERnIs-1581429638388)(imgs/2020-02-11-09-26-12.png)]

注意:

  • 上面的 p ( x 1 , x 2 , x 3 ) = p ( x 1 ) p ( x 3 ) p ( x 2 ∣ x 1 , x 2 ) \color{red}{p(x_1,x_2,x_3)=p(x_1)p(x_3)p(x_2|x_1,x_2)} p(x1,x2,x3)=p(x1)p(x3)p(x2x1,x2)是与给出的例子2结合起来的, 例子2是变量 x 2 x_2 x2 x 1 , x 3 x_1,x_3 x1,x3共同给出

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-TyMWK0Le-1581429638389)(imgs/2020-02-11-09-26-54.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vtaVnfqn-1581429638389)(imgs/2020-02-11-09-29-15.png)]

注意:

  • 去除一个变量, 实际上就是将该变量所携带的信息转化为剩余变量的先验

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-3yLYQojl-1581429638390)(imgs/2020-02-11-09-30-37.png)]


1.2. 舒尔补应用:边际概率,条件概率

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kxnv7RmL-1581429638390)(imgs/2020-02-11-09-33-03.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-r9Omr3mL-1581429638391)(imgs/2020-02-11-09-36-35.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-dAdLCPpP-1581429638393)(imgs/2020-02-11-09-50-49.png)]


这里可以往回看一下多元高斯分布,上几页ppt

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kapVl576-1581429638393)(imgs/2020-02-11-09-52-10.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-14uU1y35-1581429638394)(imgs/2020-02-11-09-59-06.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-zlXLRlVS-1581429638395)(imgs/2020-02-11-10-01-00.png)]

解释:

  1. x = [ a , b ] T x=[a,b]^T x=[a,b]T里面的变量 a a a进行边际概率, 即把变量 b b b去掉的时候, a a a的分布正比于 exp ⁡ ( − 1 2 a T A − 1 a ) \exp(-\frac{1}{2}a^T A^{-1} a) exp(21aTA1a), 也就是服从均值为0, 方差为A的正态分布
  2. 此时的边际概率 P ( a ) P(a) P(a)的协方差就是多元变量x的协方差矩阵 K K K中的矩阵块, 在这个例子中就是矩阵块 A A A
    K = [ A C T C D ] K= \begin{bmatrix} A & C^T \\ C & D \end{bmatrix} K=[ACCTD]
  3. 对应的关于条件概率 P ( b ∣ a ) P(b|a) P(ba)则服从均值为 A − 1 C T b A^{-1}C^Tb A1CTb, 方差为变量a的舒尔补 Δ A \Delta_A ΔA的正态分布.

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-q8eJfBvw-1581429638396)(imgs/2020-02-11-10-13-44.png)]
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-524EnGyg-1581429638396)(imgs/2020-02-11-10-23-27.png)]

解释:

  1. 就是说,在SLAM问题里面,我们直接操作的只有多元变量 x = [ a , b ] T x=[a,b]^T x=[a,b]T信息矩阵(注意,是信息矩阵,不是协方差矩阵)
    K − 1 = [ A C T C D ] − 1 K^{-1}= \begin{bmatrix} A & C^T \\ C & D \end{bmatrix} ^{-1} K1=[ACCTD]1
  2. 根据公式(29), 即我们只有这样一个形式的信息矩阵:
    K − 1 = [ A − 1 + A − 1 C T Δ A − 1 C A − 1 − A − 1 C T Δ A − 1 − Δ A − 1 C A − 1 Δ A − 1 ] \begin{aligned} K^{-1} &= \begin{bmatrix} A^{-1}+A^{-1}C^T \Delta_{A}^{-1} C A^{-1} & -A^{-1}C^T\Delta_{A}^{-1} \\ -\Delta_{A}^{-1} C A^{-1} & \Delta_{A}^{-1} \end{bmatrix} \end{aligned} K1=[A1+A1CTΔA1CA1ΔA1CA1A1CTΔA1ΔA1]
  3. 需要从上面形式的信息矩阵中恢复出变量 a a a的信息矩阵,即矩阵 A − 1 A^{-1} A1,则可利用公式(38)

注意:

  1. 对某个多元高斯分布 P ( a , b ) P(a,b) P(a,b)进行分解,可分解为:
    • P ( a , b ) = P ( a ∣ b ) P ( a ) P(a,b)=P(a|b)P(a) P(a,b)=P(ab)P(a): 这种情况就是不再关注变量b, 而边际分布 P ( a ) P(a) P(a)的信息矩阵包含了就是把变量 b b b所携带的信息, 就是说此时 P ( a ) P(a) P(a)分布是包含了变量 b b b信息的先验. (适用于去掉变量b)
    • P ( a , b ) = P ( b ∣ a ) P ( b ) P(a,b)=P(b|a)P(b) P(a,b)=P(ba)P(b): 这种情况就是不再关注变量a, 二边际分布 P ( b ) P(b) P(b)的信息矩阵包含了就是把变量 a a a所携带的信息, 就是说此时 P ( b ) P(b) P(b)分布是包含了变量 a a a信息的先验. (适用于去掉变量a)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-T5D6rAFV-1581429638397)(imgs/2020-02-11-10-32-36.png)]

解释:

  1. 回顾例子(1),有3个变量 x 1 , x 2 , x 3 x_1,x_2,x_3 x1,x2,x3, 如果去掉变量 x 3 x_3 x3, 对应的信息矩阵就是原来信息矩阵中关于变量 x 3 x_3 x3的项全部消掉, 由于实际操作中并没有颜色标记, 所以应用了舒尔补公式来进行这个消掉 x 3 x_3 x3相关项的操作.

  2. 具体操作就是:把 ( x 1 , x 2 ) (x_1,x_2) (x1,x2)看做是上面多元高斯分布 x = [ a , b ] T x=[a,b]^T x=[a,b]T里面的 a a a, 把 x 3 x_3 x3看做是 b b b, 可以看到, b边缘化之后的分布(即边际概率) P ( x 1 , x 2 ) P(x_1,x_2) P(x1,x2)对应的信息矩阵可以用公式(38)得到.
    P ( x 1 , x 2 , x 3 ) = P ( x 1 , x 2 ) P ( x 3 ∣ x 1 , x 2 ) \begin{aligned} P(x_1,x_2,x_3)=P(x_1,x_2)P(x_3|x_1,x_2) \end{aligned} P(x1,x2,x3)=P(x1,x2)P(x3x1,x2)

  3. 最终要保留的变量 ( x 1 , x 2 ) (x_1,x_2) (x1,x2)所对应的原信息矩阵子块就是 Λ a a \Lambda_{aa} Λaa, 消掉某个变量( x 3 x_3 x3)之后, 变量 ( x 1 , x 2 ) (x_1,x_2) (x1,x2)最终的信息矩阵由式(38)来计算.

  4. 换句话说: 当最终要保留的变量是 ( x 2 , x 3 ) (x_2,x_3) (x2,x3), 而要消掉的变量是 x 1 x_1 x1时, 变量 ( x 2 , x 3 ) (x_2,x_3) (x2,x3)在原信息矩阵 K − 1 K^{-1} K1所对应的矩阵子块为右下角的部分, 即原信息矩阵的右下角子块才是 Λ a a \Lambda_{aa} Λaa

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-VxO468Xx-1581429638398)(imgs/2020-02-11-15-32-16.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-axtQ2U9R-1581429638399)(imgs/2020-02-11-10-33-45.png)]


作业

在这里插入图片描述
1. 画出相机变量 ξ 1 \xi_1 ξ1被marg之后的信息矩阵
在这里插入图片描述
2. 画出相机变量 ξ 2 \xi_2 ξ2被marg之后的信息矩阵

(不知道是不是这样做?)
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值