1,对似然函数的理解
似然性(likelihood)与概率(possibility)同样可以表示事件发生的可能性大小,但是二者有着很大的区别:
而所谓最大似然估计(Maximize Likelihood Estimation, MLE)是指在给定的观测数据下,找出参数
θ
\theta
θ ,使得生成观测数据
x
x
x的概率函数
P
(
x
∣
θ
)
P(x|\theta)
P(x∣θ)最大,表示为
在状态估计问题中,状态变量
x
x
x成为参数,这个时候表示为
在这种情况下,可以理解成“在什么样的状态下,最可能产生现在观测到的
数据”。
2,多维高斯分布
对于一维正态高斯分布为
对于多维高斯正态分布为
其中,
x
ˉ
\bar x
xˉ表示维度为 D 的向量,
u
ˉ
\bar u
uˉ 则是这些向量的平均值,
Σ
Σ
Σ表示所有向量
x
ˉ
\bar x
xˉ的协方差矩阵。
对其取负对数,这里我改成了书上的符号
因此最大似然估计问题即为
我们可以将极大似然问题变为最小二乘的问题
3,最小二乘问题的常用解法
非线性最小二乘的定义
直接求导取极值,运算量会比较大。比较常用的解法有一阶和二阶梯度法,高斯牛顿法,列文伯格-马夸尔特法,但是都是采用的迭代的思想
关键在于如何寻找增量。
二阶梯度法的意思是将二范数的平方对
f
(
x
)
f(x)
f(x)泰勒展开,再对
Δ
x
\Delta x
Δx取导数,但是这会引出
H
(
x
)
H(x)
H(x)海塞矩阵,求解十分复杂
我们考虑一种不用求
H
(
x
)
H(x)
H(x)海塞矩阵的解法。比如说高斯牛顿法,最后结果只需要接触一个线性方程即可
4,g2o
g2o是将非线性和图优化结合起来的库。