最小二乘、梯度下降法、牛顿与高斯-牛顿与LM关系总结

目录

 一、最小二乘法引出

1、线性最小二乘与非线性最小二乘的关系

2、梯度下降法

二、非线性最小二乘(高斯牛顿、LM)

三、线性最小二乘


LZ听师兄讲,SLAM的优化方法是基础知识,尤其最小二乘法是所有优化的基础。接下来将对以下知识进行总结。

  • 最小二乘法
  • 非线性:最速下降法、牛顿法、高斯牛顿法(GN)、列文伯格-马夸尔特(LM)联系
  • 线性:QR分解、乔姆斯基分解法求解(Cholesky)、奇异值分解(SVD) 

 一、最小二乘法引出

最小二乘问题通常可以表述为,通过搜集到的一些数据(获取得到的样本),对某一个模型进行拟合,并尽可能的使得模型结果和样本达到某种程度上的最佳拟合,在SLAM中亦可以看作为观测值和模型估计值之间的误差:

其中 x 为模型中参数所组成的向量,e 通常被称为残差向量(residual vector).

1、线性最小二乘与非线性最小二乘的关系

线性:直接对目标函数求导,令其等于零,以此求得极值,比较后得到全局最小值。

非线性:由于函数复杂无法直接写出导数形式,无法直接得到全局最小值。退而求其次,从一个初始估计值通过不断迭代寻找局部最小值,不断寻找梯度并下降。

2、梯度下降法

下降法每一步迭代中都主要包括两部分内容,分别是求解下降单位向量方向

  • 10
    点赞
  • 44
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值