以下图片就来自于高翔博士《视觉SLAM十四讲》
我看到这里的时候对于(7.2)没有看懂,因为直觉上跟(7.1)完全不等,因此我自己推导了以下,发现也可以推导出之后的对级约束(7.7)。具体推导如下:
s
1
p
1
=
K
P
,
s
2
p
2
=
K
(
R
P
+
t
)
s_1p_1 = KP, s_2p_2 = K(RP+t)
s1p1=KP,s2p2=K(RP+t) 注意这里的R和t实际上可以写为
R
21
R_{21}
R21和
t
21
t_{21}
t21,接下来将上述两公示变形:
s
1
K
−
1
p
1
=
P
,
s
2
K
−
1
p
2
=
R
P
+
t
s_1K^{-1}p_1 = P, s_2K^{-1}p_2=RP+t
s1K−1p1=P,s2K−1p2=RP+t 令:
x
1
=
K
−
1
p
1
,
x
2
=
K
−
1
p
2
x_1 = K^{-1}p_1, x_2=K^{-1}p_2
x1=K−1p1,x2=K−1p2,那么上式可写为:
s
1
x
1
=
P
,
s
2
x
2
=
R
P
+
t
s_1x_1 = P, s_2x_2=RP+t
s1x1=P,s2x2=RP+t于是有:
s
2
x
2
=
R
(
s
1
x
1
)
+
t
=
s
1
R
x
1
+
t
s_2x_2 = R(s_1x_1)+t = s_1Rx_1+t
s2x2=R(s1x1)+t=s1Rx1+t
接下来两边分别左乘
t
^
\hat{t}
t^可以得到:
s
2
t
^
x
2
=
s
1
t
^
R
x
1
+
t
^
t
=
s
1
t
^
R
x
1
s_2\hat{t}x_2 = s_1\hat{t}Rx_1+\hat{t}t = s_1\hat{t}Rx_1
s2t^x2=s1t^Rx1+t^t=s1t^Rx1 因为
t
^
t
\hat{t}t
t^t类似于差积,因此等于0:
s
2
t
^
x
2
=
s
1
t
^
R
x
1
s_2\hat{t}x_2 = s_1\hat{t}Rx_1
s2t^x2=s1t^Rx1
两边分别左乘
x
2
T
x_2^T
x2T,可以得到
s
2
x
2
T
t
^
x
2
=
s
1
x
2
T
t
^
R
x
1
s_2x_2^T\hat{t}x_2 = s_1x_2^T\hat{t}Rx_1
s2x2Tt^x2=s1x2Tt^Rx1 因为左侧等于0,因此右侧也等于0,
s
1
s_1
s1是一个标量,因此:
x
2
T
t
^
R
x
1
=
0
x_2^T\hat{t}Rx_1 = 0
x2Tt^Rx1=0
这里的
E
=
t
^
R
E = \hat{t}R
E=t^R被称为本质矩阵(Essential Matrix)