抄书——最优化的理论与方法(7)——数学基础(无约束问题的最优性条件)

以下内容主要抄自抄袁亚湘的《最优化理论与方法》的 1.4 无约束问题的最优性条件


1.4 无约束问题的最优性条件

本节研究无约束问题:
min ⁡ f ( x ) , x ∈ R n ( 1.4.1 ) \min f(x),\quad x\in R^n\qquad(1.4.1) minf(x),xRn(1.4.1)
的最优性条件,它包括一阶条件二阶条件
极小点的类型有局部极小点总体最小点两种。
定义 1.4.1
如果存在 δ &gt; 0 \delta\gt 0 δ>0,使得对所有满足 x ∈ R n x\in R^n xRn ∥ x − x ∗ ∥ &lt; δ \Vert x-x^*\Vert\lt\delta xx<δ x x x f ( x ) ≥ f ( x ∗ ) f(x)\ge f(x^*) f(x)f(x),则称 x ∗ x^* x f ( x ) f(x) f(x)局部极小点。如果对所有 x ∈ R n , x ≠ x ∗ x\in R^n,x\neq x^* xRn,x̸=x ∥ x − x ∗ ∥ &lt; δ \Vert x-x^*\Vert\lt \delta xx<δ x , f ( x ) &gt; f ( x ∗ ) x,f(x)\gt f(x^*) x,f(x)>f(x) 则称 x ∗ x^* x f ( x ) f(x) f(x)严格局部最小点。
定义 1.4.2
如果对所有 x ∈ R n , f ( x ) ≥ f ( x ∗ ) x\in R^n, f(x)\ge f(x^*) xRn,f(x)f(x) ,则称 x ∗ x^* x f ( x ) f(x) f(x)总体(全局)极小点。如果对所有 x ∈ R n , x ≠ x ∗ , f ( x ) &gt; f ( x ∗ ) x\in R^n,x\neq x^*,f(x)\gt f(x^*) xRn,x̸=x,f(x)>f(x) 则称 x ∗ x^* x f ( x ) f(x) f(x)严格总体最小点。

应该指出,实际上可行的只是求==一个局部(或严格局部)==极小点,而非总体极小点,因为一般来说,求总体极小点是一个相当困难的任务。在很多实际应用中,求局部极小点已能满足问题的要求(深度学习就是一个很好的例子)。仅当问题具有某种凸性时,局部极小点才是总体最小点。

f f f 的一阶导数和二阶导数存在,且分别是:
g ( x ) = ∇ f ( x ) , G ( x ) = ∇ 2 f ( x ) g(x)=\nabla f(x),\quad G(x) = \nabla^2 f(x) g(x)=f(x),G(x)=2f(x)
则我们有
定理 1.4.3 (一阶必要条件)
f : D ⊂ R n → R 1 f:D\subset R^n\to R^1 f:DRnR1 在开集 D D D 上连续可微,即 f ∈ C 1 f\in C^1 fC1,若 x ∗ ∈ D x^* \in D xD 是 (1.4.1)的局部最小点,则
g ( x ∗ ) = 0 ( 1.4.2 ) g(x^*)=0\qquad(1.4.2) g(x)=0(1.4.2)
(证明部分省略)
定理 1.4.4 (二阶必要条件)
f : D ⊂ R n → R 1 f:D\subset R^n\to R^1 f:DRnR1 在开集 D D D 上二阶连续可微,即 f ∈ C 2 f\in C^2 fC2,若 x ∗ ∈ D x^* \in D xD 是 (1.4.1)的局部最小点,则
g ( x ∗ ) = 0 , G ( x ∗ ) ≥ 0 ( 1.4.2 ) g(x^*)=0, \quad G(x^*)\ge0 \qquad(1.4.2) g(x)=0,G(x)0(1.4.2)
(证明部分省略)

满足 g ( x ∗ ) = 0 g(x^*)=0 g(x)=0 的点 x ∗ x^* x 称为函数 f f f平稳点驻点。如果 g ( x ∗ ) = 0 g(x^*)=0 g(x)=0 ,则 x ∗ x^* x 可能是极小点,也可能是极大点,也可能不是极值点。既不是极小点,也不是极大点的平稳点叫做函数的鞍点

下面我们讨论二阶充分性条件
定理 1.4.5 (二阶充分性条件)
f : D ⊂ R n → R 1 f:D\subset R^n \to R^1 f:DRnR1 在开集 D D D 上二阶连续可微,则 x ∗ ∈ D x^*\in D xD f f f 的一个严格局部极小点的充分条件是:
g ( x ∗ ) = 0 g(x^*)=0 g(x)=0 G ( x ∗ ) G(x^*) G(x) 是正定矩阵 (1.4.4)
证明:
设(1.4.4)成立,由Taylor展开,对任意向量 d d d,有
f ( x ∗ + ε d ) = f ( x ∗ ) + 1 2 ε 2 d T G ( x ∗ + θ ε d ) d f(x^*+\varepsilon d) = f(x^*)+\frac 12\varepsilon^2d^TG(x^*+\theta \varepsilon d)d f(x+εd)=f(x)+21ε2dTG(x+θεd)d
由于 G ( x ∗ ) G(x^*) G(x) 正定, f ∈ C 2 f\in C^2 fC2,故可选择 ε \varepsilon ε,使得 x ∗ + ε d ∈ N δ ( x ∗ ) x^*+\varepsilon d\in N_{\delta}(x^*) x+εdNδ(x),从而 d T G ( x ∗ + θ ε d ) d &gt; 0 d^TG(x^*+\theta \varepsilon d)d\gt 0 dTG(x+θεd)d>0,这样
f ( x ∗ + ε d ) &gt; f ( x ∗ ) f(x^*+\varepsilon d)\gt f(x^*) f(x+εd)>f(x)
x ∗ x^* x 是严格局部极小点。 □ \quad \square

一般而言,目标函数的平稳点不一定是极小点,但若目标函数是凸函数,则其平稳点就是极小点,且为总体极小点。
定理 1.4.6(凸充分性定理)
f : R n → R 1 f: R^n \to R^1 f:RnR1 是凸函数,且 f ∈ C 1 f\in C^1 fC1。则 x ∗ x^* x 是总体极小点的充分必要条件是 g ( x ∗ ) = 0 g(x^*)=0 g(x)=0

1.5 最优化方法的结构

最优化方法通常采用迭代方法求它的最优解,其基本思想是:给定一个初始点 x 0 ∈ R n x_0\in R^n x0Rn,按照某一迭代规则产生一个点列 { x k } \{ x_k\} {xk},使得:

  • { x k } \{ x_k\} {xk} 是有穷点列时,其最后一个点是最优化模型问题的最优解。
  • { x k } \{ x_k\} {xk} 是无穷点列时,它有极限点,且其极限点是最优化模型问题的最优解。

一个好的算法应具备的典型特征为:迭代点 x k x_k xk 能够稳定地接近局部极小点 x ∗ x^* x 的邻域,然后迅速收敛于 x ∗ x^* x。当给定的某种收敛准则满足时,迭代终止。一般地,我们要证明迭代点列 { x k } \{x_k\} {xk} 的聚点(即子序列的极限点)为一局部极小点。
x k x_k xk 为第 k k k 次迭代点, d k d_k dk 为第 k k k 次搜索方向, α k \alpha_k αk 为第 k k k 次步长因子,则第 k k k 次迭代为:
x k + 1 = x k + α k d k ( 1.5.1 ) x_{k+1}=x_k+\alpha_k d_k\qquad(1.5.1) xk+1=xk+αkdk(1.5.1)
从这个迭代格式可以看出,不同的步长因子 α k \alpha_k αk和不同的搜索方向 d k d_k dk 构成了不同的方法。 在最优化方法中,搜索方向 d k d_k dk f f f x k x_k xk 点处的下降方向,即 d k d_k dk 满足:
∇ f ( x k ) T d k &lt; 0 ( 1.5.2 ) \nabla f(x_k)^T d_k\lt 0\qquad(1.5.2) f(xk)Tdk<0(1.5.2)

f ( x k + α k d ) &lt; f ( x k ) ( 1.5.3 ) f(x_k+\alpha_k d)\lt f(x_k)\qquad(1.5.3) f(xk+αkd)<f(xk)(1.5.3)
最优化方法的基本结构为:
给定初始点 x 0 x_0 x0

  1. 确定搜索方向 d k d_k dk,即依照一定规则,构造 f f f x k x_k xk 点处的下降方向作为搜索方向;
  2. 确定步长因子 α k \alpha_k αk,使目标函数值有某种意义的下降。
  3. x k = x k + α k d k x_k=x_k+\alpha_k d_k xk=xk+αkdk x k + 1 x_{k+1} xk+1 满足某种终止条件,则停止迭代,得到近似最优解 x k + 1 x_{k+1} xk+1,否则,重复(1)上步骤。

收敛速度也是衡量最优化方法有效性的重要方面。设算法产生的迭代点列 { x k } \{ x_k\} {xk} 在某种范数意义下收敛,即:
lim ⁡ k → ∞ ∥ x k − x ∗ ∥ = 0 ( 1.5.4 ) \lim_{k\to\infty} \Vert x_k-x^*\Vert=0\qquad(1.5.4) klimxkx=0(1.5.4)
若存在实数 α &gt; 0 \alpha\gt 0 α>0 及一个与迭代次数 k k k 无关的常数 q &gt; 0 q\gt 0 q>0,使得
lim ⁡ k → ∞ ∥ x k + 1 − x ∗ ∥ ∥ x k − x ∗ ∥ α = q ( 1.5.5 ) \lim_{k\to\infty} \frac{\Vert x_{k+1}-x^*\Vert}{\Vert x_k-x^*\Vert^{\alpha}}=q \qquad(1.5.5) klimxkxαxk+1x=q(1.5.5)
则称算法产生的迭代点列 { x k } \{x_k\} {xk} 具有 Q − α Q-\alpha Qα 阶收敛速度。特别地:

  1. α = 1 , q &gt; 0 \alpha=1,q\gt 0 α=1,q>0 时,迭代点列 { x k } \{x_k\} {xk} 叫做具有 Q − Q- Q线性收敛速度
  2. 1 &lt; α &lt; 2 , q &gt; 0 1\lt \alpha \lt 2,q\gt 0 1<α<2,q>0 α = 1 , q = 0 \alpha=1,q=0 α=1,q=0 时,迭代点列 { x k } \{x_k\} {xk} 叫做具有 Q − Q- Q超线性收敛速度
  3. α = 2 \alpha=2 α=2 时,迭代点列 { x k } \{x_k\} {xk} 叫做具有 Q − Q- Q二阶收敛速度

一般认为,具有超线性收敛速度和二阶收敛速度的方法是比较快速的。不过,还应该意识到,对任意一个算法,收敛性和收敛速度的理论结果并不保证算法在实际执行时一定有好的实际计算特性,另一方面,是由于它们忽略了计算过程中十分重要的舍入误差的影响。
下面给出一个算法超线性收敛的一个特性,它对于构造终止迭代所需的收敛准则是有用的。
定理 1.5.1
如果序列 { x k } \{x_k\} {xk} Q-超线性收敛到 x ∗ x^* x,那么
lim ⁡ k → ∞ ∥ x k + 1 − x k ∥ ∥ x k − x ∗ ∥ = 1 ( 1.5.6 ) \lim_{k\to\infty} \frac{\Vert x_{k+1}-x_k\Vert}{\Vert x_k-x^*\Vert}=1\qquad(1.5.6) klimxkxxk+1xk=1(1.5.6)
但反之一般不成立。
这个定理表明 ∥ x k + 1 − x k ∥ \Vert x_{k+1}-x_k\Vert xk+1xk 可以用来代替 ∥ x k − x ∗ ∥ \Vert x_{k}-x^*\Vert xkx 给出终止判断,并且这个估计随着 k 的增加而改善。

大多数最优化方法是从二次函数模型导出的。这种类型的方法在实际上常常是有效的,其主要原因是一般函数在极小点附近常可用二次函数很好地进行近似。所谓二次终止性是指当算法应用于一个二次函数时,只要经过有限步迭代就能达到函数的极小点 x ∗ x^* x因此,对于一般函数而言,具有二次终止性的算法可望在接近极小点时具有很好的收敛性质。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值