前言
同梯度下降法一样,牛顿法和拟牛顿法也是求解无约束最优化问题的常用方法。牛顿法本身属于迭代算法,每一步需要求解目标函数的海赛矩阵的逆矩阵,计算比较复杂。拟牛顿法通过正定矩阵近似海赛矩阵的逆矩阵或海赛矩阵,简化了这一计算过程。
需要提前了解的知识
泰勒展开
当 f ( x ) f(x) f(x)在 x = x 0 x=x_0 x=x0处具有 n n n阶连续导数,我们可以用 x − x 0 x-x_0 x−x0的 n n n次多项式逼近函数
公式:
f
(
x
)
=
f
(
x
0
)
0
!
+
f
′
(
x
0
)
1
!
(
x
−
x
0
)
+
f
′
′
(
x
0
)
2
!
(
x
−
x
0
)
2
+
.
.
.
+
f
(
n
)
(
x
0
)
n
!
(
x
−
x
0
)
n
+
R
n
(
x
)
f(x) = \frac{f(x_0)}{0!}+\frac{f'(x_0)}{1!}(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+...+\frac{f^{(n)}(x_0)}{n!}(x-x_0)^n+R^n(x)
f(x)=0!f(x0)+1!f′(x0)(x−x0)+2!f′′(x0)(x−x0)2+...+n!f(n)(x0)(x−x0)n+Rn(x)
其中
R
n
(
x
)
R^n(x)
Rn(x)表示泰勒余项,它是
(
x
−
x
0
)
n
(x-x_0)^n
(x−x0)n的高阶无穷小。
海森矩阵
Hessian Matrix,是一个多元函数的二阶偏导数构成的方阵,描述了函数的局部曲率
以二元函数
f
(
x
1
,
x
2
)
f(x_1,x_2)
f(x1,x2)为例,它在
X
(
0
)
(
x
1
(
0
)
,
x
2
(
0
)
)
X^{(0)}(x_1^{(0)},x_2^{(0)})
X(0)(x1(0),x2(0))点处的泰勒展开式为:
f
(
x
1
,
x
2
)
=
f
(
x
1
(
0
)
,
x
2
(
0
)
)
+
∂
f
∂
x
1
∣
X
(
0
)
△
x
1
+
∂
f
∂
x
2
∣
X
(
0
)
△
x
2
+
1
2
[
∂
2
f
∂
x
1
2
∣
X
(
0
)
△
x
1
2
+
∂
2
f
∂
x
1
∂
x
2
∣
X
(
0
)
△
x
1
△
x
2
+
∂
2
f
∂
x
2
2
∣
X
(
0
)
△
x
2
2
]
+
.
.
.
f(x_1,x_2) = f(x_1^{(0)},x_2^{(0)})+ \frac{\partial{f}}{\partial{x_1}}\Big|_{X^{(0)}} \triangle x_1 + \frac{\partial{f}}{\partial{x_2}}\Big|_{X^{(0)}} \triangle x_2 + \frac{1}{2} \bigg[ \frac{\partial ^2{f}}{\partial{x_1^2}}\Big|_{X^{(0)}} \triangle x_1^2 + \frac{\partial ^2{f}}{\partial{x_1}\partial{x_2}}\Big|_{X^{(0)}} \triangle x_1 \triangle x_2+ \frac{\partial ^2{f}}{\partial{x_2^2}}\Big|_{X^{(0)}} \triangle x_2^2 \bigg]+ ...
f(x1,x2)=f(x1(0),x2(0))+∂x1∂f∣∣∣X(0)△x1+∂x2∂f∣∣∣X(0)△x2+21[∂x12∂2f∣∣∣X(0)△x12+∂x1∂x2∂2f∣∣∣X(0)△x1△x2+∂x22∂2f∣∣∣X(0)△x22]+...
其中
△
x
1
=
x
1
−
x
1
(
0
)
,
△
x
2
=
x
2
−
x
2
(
0
)
\triangle x_1 = x_1 - x_1^{(0)}, \triangle x_2 = x_2 - x_2^{(0)}
△x1=x1−x1(0),△x2=x2−x2(0)
改写成矩阵形式:
f
(
X
)
=
f
(
X
(
0
)
)
+
[
∂
f
∂
x
1
+
∂
f
∂
x
2
]
∣
X
(
0
)
(
△
x
1
△
x
2
)
+
1
2
(
△
x
1
,
△
x
2
)
(
∂
2
f
∂
x
1
2
∂
2
f
∂
x
1
∂
x
2
∂
2
f
∂
x
2
∂
x
1
∂
2
f
∂
x
2
2
)
∣
X
(
0
)
(
△
x
1
△
x
2
)
+
.
.
.
f(X) = f(X^{(0)}) +\bigg [\frac{\partial f}{\partial x_1} + \frac{\partial f}{\partial x_2}\bigg ] \bigg|_{X^{(0)}} \begin{pmatrix}\triangle x_1\\ \triangle x_2\end{pmatrix} +\frac{1}{2} (\triangle x_1 , \triangle x_2)\begin{pmatrix}\frac{\partial ^2f}{\partial x_1^2} & \frac{\partial ^2f}{\partial x_1 \partial x_2}\\ \frac{\partial ^2f}{\partial x_2 \partial x_1} & \frac{\partial ^2f}{\partial x_2^2} \end{pmatrix}\bigg|_{X^{(0)}}\begin{pmatrix}\triangle x_1\\ \triangle x_2\end{pmatrix}+ ...
f(X)=f(X(0))+[∂x1∂f+∂x2∂f]∣∣∣∣X(0)(△x1△x2)+21(△x1,△x2)(∂x12∂2f∂x2∂x1∂2f∂x1∂x2∂2f∂x22∂2f)∣∣∣∣X(0)(△x1△x2)+...
即:
f
(
X
)
=
f
(
X
(
0
)
)
+
▽
f
(
X
(
0
)
)
T
△
X
+
1
2
△
X
T
H
(
X
(
0
)
)
△
X
+
.
.
.
f(X) = f(X^{(0)}) + \triangledown f(X^{(0)})^T \triangle X + \frac{1}{2} \triangle X^T H(X^{(0)}) \triangle X +...
f(X)=f(X(0))+▽f(X(0))T△X+21△XTH(X(0))△X+...
其中
H
(
X
(
0
)
)
H(X^{(0)})
H(X(0))即二元函数
f
(
x
1
,
x
2
)
f(x_1,x_2)
f(x1,x2)在
X
(
0
)
X^{(0)}
X(0)点处的海森矩阵,即二阶偏导数组成的方阵;
▽
f
(
X
(
0
)
)
\triangledown f(X^{(0)})
▽f(X(0))是函数在该点处的梯度。
牛顿法
考虑无约束最优化问题:
min
x
f
(
x
)
\min_{x}f(x)
xminf(x)
首先讨论单自变量情况
假设
f
(
x
)
f(x)
f(x)具有二阶连续导数,运用迭代的思想,我们假设第
k
k
k次迭代值为
x
(
k
)
x^{(k)}
x(k), 将
f
(
x
)
f(x)
f(x)进行二阶泰勒展开:
f
(
x
)
=
f
(
x
(
k
)
)
+
f
′
(
x
(
k
)
)
(
x
−
x
(
k
)
)
+
1
2
f
′
′
(
x
(
k
)
)
(
x
−
x
(
k
)
)
2
+
R
2
(
x
)
f(x)=f(x^{(k)})+f'(x^{(k)})(x-x^{(k)})+\frac{1}{2}f''(x^{(k)})(x-x^{(k)})^2+R_2(x)
f(x)=f(x(k))+f′(x(k))(x−x(k))+21f′′(x(k))(x−x(k))2+R2(x)
其中 R 2 ( x ) R_2(x) R2(x)是 ( x − x ( k ) ) 2 (x-x^{(k)})^2 (x−x(k))2的高阶无穷小,也叫做泰勒余项。
由于二阶可导,函数
f
(
x
)
f(x)
f(x)有极值的必要条件是极值点处一阶导数为0,令
f
′
(
x
)
f'(x)
f′(x)为0解出
x
(
k
+
1
)
x^{(k+1)}
x(k+1):
f
′
(
x
(
k
)
)
+
f
′
′
(
x
(
k
)
)
(
x
−
x
(
k
)
)
=
0
f'(x^{(k)})+f''(x^{(k)})(x-x^{(k)})=0
f′(x(k))+f′′(x(k))(x−x(k))=0
x
(
k
+
1
)
=
x
(
k
)
−
f
′
(
x
(
k
)
)
f
′
′
(
x
(
k
)
)
x^{(k+1)} = x^{(k)} - \frac{f'(x^{(k)})}{f''(x^{(k)})}
x(k+1)=x(k)−f′′(x(k))f′(x(k))
至此,当数列满足收敛条件时我们可以构造一个初始值
x
(
0
)
x^{(0)}
x(0)和上述递推公式得到一个数列
{
x
(
k
)
}
\{x^{(k)}\}
{x(k)}不停地逼近极小值点
多自变量的情况
按照前面海森矩阵的介绍,在多自变量情况下,二阶泰勒展开式可写为:
f
(
X
)
=
f
(
X
(
k
)
)
+
▽
f
(
X
(
k
)
)
T
△
X
+
1
2
△
X
T
H
(
X
(
k
)
)
△
X
+
.
.
.
f(X) = f(X^{(k)}) + \triangledown f(X^{(k)})^T \triangle X + \frac{1}{2} \triangle X^T H(X^{(k)}) \triangle X + ...
f(X)=f(X(k))+▽f(X(k))T△X+21△XTH(X(k))△X+...
函数
f
(
X
)
f(X)
f(X)极值必要条件要求它必须是
f
(
X
)
f(X)
f(X)的驻点,即:
▽
f
(
X
)
=
0
\triangledown f(X) = 0
▽f(X)=0
由于
▽
f
(
X
(
k
)
)
\triangledown f(X^{(k)})
▽f(X(k))和
H
(
X
(
k
)
)
=
▽
2
f
(
X
(
k
)
)
H(X^{(k)}) = \triangledown ^2f(X^{(k)})
H(X(k))=▽2f(X(k))分别表示函数
f
(
X
)
f(X)
f(X)的梯度和海森矩阵取值为
X
(
k
)
X^{(k)}
X(k)的实值向量和实值矩阵,我们分别将其记为
g
k
g_k
gk和
H
k
H_k
Hk,根据驻点解出
X
(
k
+
1
)
X^{(k+1)}
X(k+1):
g
k
+
H
k
(
X
−
X
(
k
)
)
=
0
g_k + H_k(X-X^{(k)}) = 0
gk+Hk(X−X(k))=0
X
(
k
+
1
)
=
X
(
k
)
−
H
k
−
1
g
k
X^{(k+1)} = X^{(k)} - H_k^{-1}g_k
X(k+1)=X(k)−Hk−1gk
同样我们可以构造一个迭代数列不停地去逼近函数的最小值点。
拟牛顿法
在牛顿法的迭代过程中,需要计算海森矩阵 H − 1 H^{-1} H−1,一方面有计算量大的问题,另一方面当海森矩阵非正定时牛顿法也会失效,因此我们考虑用一个 n n n阶矩阵 G k = G ( X ( k ) ) G_k = G(X^{(k)}) Gk=G(X(k))来近似替代 H k − 1 = H − 1 ( X ( k ) ) H^{-1}_k = H^{-1}(X^{(k)}) Hk−1=H−1(X(k))。
拟牛顿条件
根据前面的迭代式子:
▽
f
(
X
)
=
g
k
+
H
k
(
X
−
X
(
k
)
)
=
0
\triangledown f(X) = g_k + H_k(X-X^{(k)}) = 0
▽f(X)=gk+Hk(X−X(k))=0
取
X
=
X
(
k
+
1
)
X = X^{(k+1)}
X=X(k+1), 我们可以得到:
g
k
+
1
−
g
k
=
H
k
(
X
(
k
+
1
)
−
X
(
k
)
)
g_{k+1} - g_k = H_k(X^{(k+1)} - X^{(k)})
gk+1−gk=Hk(X(k+1)−X(k))
记
y
k
=
g
k
+
1
−
g
k
y_k = g_{k+1} - g_k
yk=gk+1−gk,
δ
k
=
X
(
k
+
1
)
−
X
(
k
)
\delta_k = X^{(k+1)} - X^{(k)}
δk=X(k+1)−X(k),那么可以得到:
y
k
=
H
k
δ
k
y_k = H_k \delta_k
yk=Hkδk
或
H
k
−
1
y
k
=
δ
k
H_k^{-1} y_k = \delta _k
Hk−1yk=δk
上述两个式子就是拟牛顿条件。
常见的拟牛顿法
根据拟牛顿条件,我们可以构造不同的 G k G_k Gk,这里仅列出常用的几种拟牛顿法,可根据需要再学习具体实现。
- DFP算法(Davidon-Fletcher-Powell)
- BFGS算法(Broydeb-Fletcher-Goldfarb-Shanno)
- Broyden类算法
Reference
李航的《统计学习方法》