对于非线性优化问题,
min
p
F
(
p
)
\min_pF(p)
pminF(p)
F
(
p
)
=
f
(
p
)
T
Σ
−
1
f
(
p
)
F(p)={f(p)}^T\Sigma^{-1}f(p)
F(p)=f(p)TΣ−1f(p)
采用迭代的方式,从一个初始值出发,不断更新当前的优化变量,使得代价函数下降。换而言之,就是将优化变量从
p
p
p变成
Δ
p
\Delta p
Δp,
min
Δ
p
F
(
p
+
Δ
p
)
\min_{\Delta p} F(p+\Delta p)
ΔpminF(p+Δp)
1 一阶梯度法和二阶梯度法
直接将
F
(
p
+
Δ
p
)
F(p+\Delta p)
F(p+Δp)泰勒展开,
2 高斯牛顿法
将
f
(
p
)
f(p)
f(p)泰勒展开,
3 列文伯格-马夸尔特法
在高斯牛顿法的基础上加上信赖域,利用拉格朗日乘数法求解
Δ
p
\Delta p
Δp,
4 DogLeg法
信赖域法,待补充!