fej


 

在给予优化方法上,同样可以使用First estimate jacobian.

基于优化的问题的核心是求解 H\Delta x = -b 这件事. 为了使得这个问题的规模是控制在一定规模下的,那么就要讲old state Marginalize 出去. 在marginalize old state的时候,关于 old state的 jacobian 矩阵也好, hession 矩阵也好就永久的固定在了一个线性化点上, 这些Jacobian和Hession 不仅仅与Old state相关,也和与他直接相关连的状态相关(我们就叫它们 x_r 吧,r 表示剩下的). 如果在后续的优化中,我们使用每一步迭代更新得到的 x_r 来线性化得到H的话,那么我们相当于在同一个状态的两个点上线性化cost function(计算marginalize 相关的cost function的时候我们已经将 x_r 固定),这就导致了错误的可观性. 用SLAM中的marginalization 和 Schur complement 中的一张图来说明在同一个cost function中使用同一个状态的两个线性化点给系统的nullspace带来的变化

于是,Cuong Dong-Si在[4]中, 通过使用在marginalize时候的 x_r 来固定之后的线性化点的办法来客服不正确的可观行. 即opt方法中的First estimate jacobian.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值