1.一阶二阶梯度法
求解的最直观方法就是将目标函数(线性优化最常见的那种目标函数,下面式子中左边那个)在x附近进行泰勒展开
其中J就是目标函数||f(x)||^2关于x的导数(雅克比矩阵),H则是二阶导数(海森Hessian矩阵).。
如果这个式子只保留一阶梯度,然后对右边的式子对Δx求导得导数等于J(x),这意味着当Δx = J(x)的时候,这个函数最大。那么如果我们想要这个函数最小的时候,取
如果保留二阶梯度,对右边的式子求导,可得
这里的H为海森矩阵
二阶梯度法又称为牛顿法
Δx = -J/H 可以出迭代方程为
由此迭代求极值
2.高斯牛顿法
将f(x)进行一阶泰勒展开(不是目标函数f(x)^2)
为了求Δx,需要解一个线性的最小二乘问题