1. 第四讲(上)_基于滑动窗口算法的VIO系统原理
1.1. 高斯分布到信息矩阵
1.1.1. SLAM问题的模型
1.1.2. 举例
- 上面省略了一些步骤
∑ 11 = C o n v ( x 1 , x 1 ) = E ( [ x 1 − E ( x 1 ) ] 2 ) \begin{aligned} \sum_{11}=Conv(x_1,x_1)=E([x_1-E(x_1)]^2) \end{aligned} 11∑=Conv(x1,x1)=E([x1−E(x1)]2)
又因为:
E
(
x
1
)
=
E
(
w
1
v
2
+
v
1
)
=
w
1
E
(
v
2
)
+
E
(
v
1
)
E(x_1)=E(w_1 v_2+v_1)=w_1 E(v_2)+E(v_1)
E(x1)=E(w1v2+v1)=w1E(v2)+E(v1)
且
v
1
v_1
v1和
v
2
v_2
v2都是0均值正态分布,所以
E
(
x
1
)
=
E
(
w
1
v
2
+
v
1
)
=
w
1
E
(
v
2
)
+
E
(
v
1
)
=
0
E(x_1)=E(w_1 v_2+v_1)=w_1 E(v_2)+E(v_1)=0
E(x1)=E(w1v2+v1)=w1E(v2)+E(v1)=0
所以:
∑
11
=
C
o
n
v
(
x
1
,
x
1
)
=
E
(
[
x
1
−
E
(
x
1
)
]
2
)
=
E
(
[
x
1
]
2
)
\sum_{11}=Conv(x_1,x_1)=E([x_1-E(x_1)]^2)=E([x_1]^2)
11∑=Conv(x1,x1)=E([x1−E(x1)]2)=E([x1]2)
最终:
∑
11
=
C
o
n
v
(
x
1
,
x
1
)
=
E
(
[
x
1
−
E
(
x
1
)
]
2
)
=
E
(
[
x
1
]
)
=
w
1
2
E
(
v
2
2
)
+
2
w
1
E
(
v
1
v
2
)
+
E
(
v
1
2
)
=
w
1
2
[
E
(
v
2
2
)
−
E
(
v
2
)
2
]
+
0
+
[
E
(
v
1
2
)
−
E
(
v
1
)
2
]
=
w
1
2
σ
2
2
+
σ
1
2
\begin{aligned} \sum_{11}=Conv(x_1,x_1)&=E([x_1-E(x_1)]^2) \\ &=E([x_1]) \\ &=w_1^2E(v_2^2)+2w_1E(v_1v_2)+E(v_1^2) \\ &=w_1^2[E(v_2^2)-E(v_2)^2]+0+[E(v_1^2)-E(v_1)^2] \\ &=w_1^2\sigma_2^2+\sigma_1^2 \end{aligned}
11∑=Conv(x1,x1)=E([x1−E(x1)]2)=E([x1])=w12E(v22)+2w1E(v1v2)+E(v12)=w12[E(v22)−E(v2)2]+0+[E(v12)−E(v1)2]=w12σ22+σ12
下面是关于期望\方差\协方差的一些回顾:
协方差矩阵
以上参考自:
注意:
- 上面的 p ( x 1 , x 2 , x 3 ) = p ( x 2 ) p ( x 1 ∣ x 2 ) p ( x 3 ∣ x 2 ) \color{red}{p(x_1,x_2,x_3)=p(x_2)p(x_1|x_2)p(x_3|x_2)} p(x1,x2,x3)=p(x2)p(x1∣x2)p(x3∣x2)是与给出的例子结合起来的, 例子是有室外的温度(即变量 x 2 x_2 x2), 而房间1和房间3的温度是分别仅与室外温度 x 2 x_2 x2相关.
一些特性
- 如果协方差矩阵中,非对角元素 ∑ i j > 0 \sum_{ij}>0 ∑ij>0表示两个变量正相关.
- 在信息矩阵(协方差矩阵的逆)中,对应的非对角元素 ∑ i j < 0 \sum_{ij}<0 ∑ij<0或 ∑ i j = 0 \sum_{ij}=0 ∑ij=0. 如 Λ 12 < 0 \Lambda_{12}<0 Λ12<0则表示在变量 x 3 x_3 x3发生(确定)的条件下,元素 x 1 x_1 x1和 x 2 x_2 x2是正相关的.
注意:
- 上面的 p ( x 1 , x 2 , x 3 ) = p ( x 1 ) p ( x 3 ) p ( x 2 ∣ x 1 , x 2 ) \color{red}{p(x_1,x_2,x_3)=p(x_1)p(x_3)p(x_2|x_1,x_2)} p(x1,x2,x3)=p(x1)p(x3)p(x2∣x1,x2)是与给出的例子2结合起来的, 例子2是变量 x 2 x_2 x2由 x 1 , x 3 x_1,x_3 x1,x3共同给出
注意:
- 去除一个变量, 实际上就是将该变量所携带的信息转化为剩余变量的先验
1.2. 舒尔补应用:边际概率,条件概率
这里可以往回看一下多元高斯分布,上几页ppt
解释:
- 对 x = [ a , b ] T x=[a,b]^T x=[a,b]T里面的变量 a a a进行边际概率, 即把变量 b b b去掉的时候, a a a的分布正比于 exp ( − 1 2 a T A − 1 a ) \exp(-\frac{1}{2}a^T A^{-1} a) exp(−21aTA−1a), 也就是服从均值为0, 方差为A的正态分布
- 此时的边际概率
P
(
a
)
P(a)
P(a)的协方差就是多元变量x的协方差矩阵
K
K
K中的矩阵块, 在这个例子中就是矩阵块
A
A
A
K = [ A C T C D ] K= \begin{bmatrix} A & C^T \\ C & D \end{bmatrix} K=[ACCTD] - 对应的关于条件概率 P ( b ∣ a ) P(b|a) P(b∣a)则服从均值为 A − 1 C T b A^{-1}C^Tb A−1CTb, 方差为变量a的舒尔补 Δ A \Delta_A ΔA的正态分布.
解释:
- 就是说,在SLAM问题里面,我们直接操作的只有多元变量
x
=
[
a
,
b
]
T
x=[a,b]^T
x=[a,b]T的信息矩阵(注意,是信息矩阵,不是协方差矩阵)
K − 1 = [ A C T C D ] − 1 K^{-1}= \begin{bmatrix} A & C^T \\ C & D \end{bmatrix} ^{-1} K−1=[ACCTD]−1 - 根据公式(29), 即我们只有这样一个形式的信息矩阵:
K − 1 = [ A − 1 + A − 1 C T Δ A − 1 C A − 1 − A − 1 C T Δ A − 1 − Δ A − 1 C A − 1 Δ A − 1 ] \begin{aligned} K^{-1} &= \begin{bmatrix} A^{-1}+A^{-1}C^T \Delta_{A}^{-1} C A^{-1} & -A^{-1}C^T\Delta_{A}^{-1} \\ -\Delta_{A}^{-1} C A^{-1} & \Delta_{A}^{-1} \end{bmatrix} \end{aligned} K−1=[A−1+A−1CTΔA−1CA−1−ΔA−1CA−1−A−1CTΔA−1ΔA−1] - 需要从上面形式的信息矩阵中恢复出变量 a a a的信息矩阵,即矩阵 A − 1 A^{-1} A−1,则可利用公式(38)
注意:
- 对某个多元高斯分布
P
(
a
,
b
)
P(a,b)
P(a,b)进行分解,可分解为:
- P ( a , b ) = P ( a ∣ b ) P ( a ) P(a,b)=P(a|b)P(a) P(a,b)=P(a∣b)P(a): 这种情况就是不再关注变量b, 而边际分布 P ( a ) P(a) P(a)的信息矩阵包含了就是把变量 b b b所携带的信息, 就是说此时 P ( a ) P(a) P(a)分布是包含了变量 b b b信息的先验. (适用于去掉变量b)
- P ( a , b ) = P ( b ∣ a ) P ( b ) P(a,b)=P(b|a)P(b) P(a,b)=P(b∣a)P(b): 这种情况就是不再关注变量a, 二边际分布 P ( b ) P(b) P(b)的信息矩阵包含了就是把变量 a a a所携带的信息, 就是说此时 P ( b ) P(b) P(b)分布是包含了变量 a a a信息的先验. (适用于去掉变量a)
解释:
-
回顾例子(1),有3个变量 x 1 , x 2 , x 3 x_1,x_2,x_3 x1,x2,x3, 如果去掉变量 x 3 x_3 x3, 对应的信息矩阵就是原来信息矩阵中关于变量 x 3 x_3 x3的项全部消掉, 由于实际操作中并没有颜色标记, 所以应用了舒尔补公式来进行这个消掉 x 3 x_3 x3相关项的操作.
-
具体操作就是:把 ( x 1 , x 2 ) (x_1,x_2) (x1,x2)看做是上面多元高斯分布 x = [ a , b ] T x=[a,b]^T x=[a,b]T里面的 a a a, 把 x 3 x_3 x3看做是 b b b, 可以看到, b边缘化之后的分布(即边际概率) P ( x 1 , x 2 ) P(x_1,x_2) P(x1,x2)对应的信息矩阵可以用公式(38)得到.
P ( x 1 , x 2 , x 3 ) = P ( x 1 , x 2 ) P ( x 3 ∣ x 1 , x 2 ) \begin{aligned} P(x_1,x_2,x_3)=P(x_1,x_2)P(x_3|x_1,x_2) \end{aligned} P(x1,x2,x3)=P(x1,x2)P(x3∣x1,x2) -
最终要保留的变量 ( x 1 , x 2 ) (x_1,x_2) (x1,x2)所对应的原信息矩阵子块就是 Λ a a \Lambda_{aa} Λaa, 消掉某个变量( x 3 x_3 x3)之后, 变量 ( x 1 , x 2 ) (x_1,x_2) (x1,x2)最终的信息矩阵由式(38)来计算.
-
换句话说: 当最终要保留的变量是 ( x 2 , x 3 ) (x_2,x_3) (x2,x3), 而要消掉的变量是 x 1 x_1 x1时, 变量 ( x 2 , x 3 ) (x_2,x_3) (x2,x3)在原信息矩阵 K − 1 K^{-1} K−1所对应的矩阵子块为右下角的部分, 即原信息矩阵的右下角子块才是 Λ a a \Lambda_{aa} Λaa
作业
1. 画出相机变量
ξ
1
\xi_1
ξ1被marg之后的信息矩阵
2. 画出相机变量
ξ
2
\xi_2
ξ2被marg之后的信息矩阵
(不知道是不是这样做?)