在给予优化方法上,同样可以使用First estimate jacobian.
基于优化的问题的核心是求解 这件事. 为了使得这个问题的规模是控制在一定规模下的,那么就要讲old state Marginalize 出去. 在marginalize old state的时候,关于 old state的 jacobian 矩阵也好, hession 矩阵也好就永久的固定在了一个线性化点上, 这些Jacobian和Hession 不仅仅与Old state相关,也和与他直接相关连的状态相关(我们就叫它们
吧,r 表示剩下的). 如果在后续的优化中,我们使用每一步迭代更新得到的
来线性化得到H的话,那么我们相当于在同一个状态的两个点上线性化cost function(计算marginalize 相关的cost function的时候我们已经将
固定),这就导致了错误的可观性. 用SLAM中的marginalization 和 Schur complement 中的一张图来说明在同一个cost function中使用同一个状态的两个线性化点给系统的nullspace带来的变化
于是,Cuong Dong-Si在[4]中, 通过使用在marginalize时候的 来固定之后的线性化点的办法来客服不正确的可观行. 即opt方法中的First estimate jacobian.