《slam十四讲》阅读笔记-非线性优化

1,对似然函数的理解

似然性(likelihood)与概率(possibility)同样可以表示事件发生的可能性大小,但是二者有着很大的区别:
在这里插入图片描述而所谓最大似然估计(Maximize Likelihood Estimation, MLE)是指在给定的观测数据下,找出参数 θ \theta θ ,使得生成观测数据 x x x的概率函数 P ( x ∣ θ ) P(x|\theta) P(xθ)最大,表示为
在这里插入图片描述
在状态估计问题中,状态变量 x x x成为参数,这个时候表示为

在这里插入图片描述
在这种情况下,可以理解成“在什么样的状态下,最可能产生现在观测到的
数据”。

2,多维高斯分布

对于一维正态高斯分布为
在这里插入图片描述
对于多维高斯正态分布为
在这里插入图片描述
其中, x ˉ \bar x xˉ表示维度为 D 的向量, u ˉ \bar u uˉ 则是这些向量的平均值, Σ Σ Σ表示所有向量 x ˉ \bar x xˉ的协方差矩阵。
对其取负对数,这里我改成了书上的符号
在这里插入图片描述因此最大似然估计问题即为
在这里插入图片描述我们可以将极大似然问题变为最小二乘的问题
在这里插入图片描述

3,最小二乘问题的常用解法

非线性最小二乘的定义
在这里插入图片描述

直接求导取极值,运算量会比较大。比较常用的解法有一阶和二阶梯度法,高斯牛顿法,列文伯格-马夸尔特法,但是都是采用的迭代的思想
在这里插入图片描述
关键在于如何寻找增量。
二阶梯度法的意思是将二范数的平方对 f ( x ) f(x) f(x)泰勒展开,再对 Δ x \Delta x Δx取导数,但是这会引出 H ( x ) H(x) H(x)海塞矩阵,求解十分复杂
在这里插入图片描述
我们考虑一种不用求 H ( x ) H(x) H(x)海塞矩阵的解法。比如说高斯牛顿法,最后结果只需要接触一个线性方程即可
在这里插入图片描述

4,g2o

g2o是将非线性和图优化结合起来的库。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值