《视觉SLAM十四讲从理论到实践 第二版》课后习题——ch6

1.  证明线性方程Ax = b 当系数矩阵A 超定时,最小二乘解为x=\left ( A^{T}A \right )^{-1}A^{T}b

2.  调研最速下降法、牛顿法、高斯牛顿法和列文伯格—马夸尔特方法各有什么优缺点?除了我们举的 Ceres 库和 g2o 库,还有哪些常用的优化库。(你可能会找到一些MATLAB 上的库)

Ipopt、NLopt、slam++、Optimization Toolbox(MATLAB)

3.  为什么高斯牛顿法的增量方程系数矩阵可能不正定?不正定有什么几何含义?为什么在这种情况下解就不稳定了?

高斯牛顿法将JJ^{T}作为Hessian矩阵的近似,而在实际的计算中JJ^{T}只有半正定性(例如:当 J 为零向量时,增量方程系数矩阵是不正定的)。当Hessian矩阵不正定时,此时的目标函数f(x_{0}+\Delta x)\approx f(x_{0}),此时对于f\left ( x \right ) 的近似是一条水平的直线,在x_{0}点处函数是“平坦的”,无法给出下一次迭代的下降方向(一阶导数恒为0),所以在这种情况下解不稳定。

4.  DogLeg 是什么?它与高斯牛顿法和列文伯格—马夸尔特方法有何异同?请搜索相关的材料。

DogLeg是信赖区域(Trust-Region)方法的一种,包含了高斯牛顿法和最速下降法两种方法,即用置信域的方法在最速下降法和高斯牛顿法之间进行切换,相当于是一种加权求解。通过引入信赖区域的概念,对两种方法计算得到的增量,在信赖区域进行加权得到新的增量并用于后续的迭代,因此计算得到的下降路径类似于DogLeg,所以被称为DogLeg方法。

5.  阅读 Ceres 的教学材料(http://ceres-solver.org/tutorial.html)以更好地掌握其用法

6.  阅读 g2o 自带的文档,你能看懂它吗?如果还不能完全看懂,请在阅读第10讲和第11讲之后再回来看。

7.  * 请更改曲线拟合实验中的曲线模型,并用 Ceres 和 g2o 进行优化实验。例如,可以使用更多的参数和更复杂的模型。

后续更新

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值