凸优化学习(五)——拉格朗日对偶

注意,本文内容来自于吴恩达老师cs229课堂笔记的中文翻译项目:https://github.com/Kivy-CN/Stanford-CS-229-CN 中的凸优化部分的内容进行翻译学习。

1. 拉格朗日对偶

一般来说,拉格朗日对偶理论是研究凸优化问题的最优解。正如我们在之前的课上看到的,当最小化一个关于 x ∈ R n x\in R^n xRn的可微凸函数 f ( x ) f(x) f(x)时,使得解集 x ∗ ∈ R n x^*\in R^n xRn是全局最优解的一个充要条件是 ∇ x f ( x ∗ ) = 0 \nabla_xf(x^*)=0 xf(x)=0。然而,在具有约束条件的凸优化问题的一般设置中,这种简单的最优性条件并不适用。对偶理论的一个主要目标是用严格的数学方法描述凸规划的最优点。

在后面的笔记中,我们简要介绍了拉格朗日对偶性及其在给出了如下一般可微凸优化问题形式时的应用:

min ⁡ x ∈ R n f ( x ) s u b j e c t t o g i ( x ) ≤ 0 , i = 1 , … , m , ( O P T ) h i ( x ) = 0 , i = 1 , … , p , \begin{aligned} \min_{x\in R^n}\quad&f(x) \\ subject\quad to\quad &g_i(x)\le 0,\quad i=1,\dots,m, \qquad\qquad (OPT) \\ &h_i(x)=0,\quad i=1,\dots,p, \end{aligned} xRnminsubjecttof(x)gi(x)0,i=1,,m,(OPT)hi(x)=0,i=1,,p,

其中 x ∈ R n x\in R^n xRn优化变量 f : R n → R f:R^n\rightarrow R f:RnR以及 g i : R n → R g_i:R^n\rightarrow R gi:RnR可微凸函数 1 ^1 1 h i : R n → R h_i:R^n\rightarrow R hi:RnR仿射函数。 2 ^2 2

1 回忆一下我们称一个函数 f : S → R f:S\rightarrow R f:SR是一个凸函数,需要满足给定任意 x , y ∈ S x,y\in S x,yS以及 0 ≤ θ ≤ 1 0\le\theta\le 1 0θ1,都有 f ( θ x + ( 1 − θ ) y ) ≤ θ f ( x ) + ( 1 − θ ) f ( y ) f(\theta x +(1-\theta) y)\le \theta f(x)+(1-\theta)f(y) f(θx+(1θ)y)θf(x)+(1θ)f(y)成立。如果函数 − f -f f是凸函数,则函数 f f f是凹函数。

2 回忆一下仿射函数有如下的形式 f ( x ) = b T x + c f(x)=b^Tx+c f(x)=bTx+c,满足 b ∈ R n , c ∈ R b\in R^n,c\in R bRn,cR。由于仿射函数的海森矩阵是一个零矩阵(即该矩阵是半正定也是半负定矩阵),因此仿射函数即是凸函数,也是凹函数

1.1 拉格朗日函数

在这一节中,我们介绍了拉格朗日对偶理论的基础——拉格朗日函数。给出了凸约束极小化问题的形式,(广义)拉格朗日是一个函数 L : R n × R m × R p → R \mathcal{L}:R^n\times R^m\times R^p\rightarrow R L:Rn×Rm×RpR,定义如下:

L ( x , α , β ) = f ( x ) + ∑ i = 1 m α i g i ( x ) + ∑ i = 1 p β i h i ( x ) ( 2 ) \mathcal{L}(x,\alpha,\beta)=f(x)+\sum_{i=1}^m\alpha_ig_i(x)+\sum_{i=1}^p\beta_ih_i(x)\qquad\qquad (2) L(x,α,β)=f(x)+i=1mαigi(x)+i=1pβihi(x)(2)

这里,拉格朗日函数的第一个参数是一个向量 x ∈ R n x\in R^n xRn,其维数与原优化问题中的优化变量的维数相匹配;根据习惯,我们称 x x x为拉格朗日函数的原始变量(primal variables)。 拉格朗日函数的第二个参数是一个向量 α ∈ R m \alpha\in R^m αRm,对应于原优化问题中的 m m m个凸不等式约束,每个约束都有一个变量 α i \alpha_i αi。拉格朗日函数的第三个参数是是个向量 β ∈ R p \beta\in R^p βRp,对应于原始优化问题的 p p p个仿射不等式,每一个约束都有一个变量 β i \beta_i βi。这些 α , β \alpha,\beta α,β元素合起来被称作拉格朗日函数或拉格朗日乘数(Lagrange multipliers)对偶变量(dual variables)

直观地,拉格朗日函数可以看作是原始凸优化问题的目标函数的一个修正版本,该优化问题考虑了每个约束条件。作为拉格朗日乘数的 α i , β i \alpha_i,\beta_i αi,βi可以认为是违反不同的限制条件的“代价”。拉格朗日对偶理论背后的关键直觉如下:

对于任何凸优化问题,总是存在对偶变量的设置,使得拉格朗日关于原变量的无约束极小值(保持对偶变量不变)与原约束极小化问题的解一致。

我们在第1.6节描述KKT条件时将这种直觉形式化。

1.2 原问题与对偶问题

为了说明拉格朗日问题与原凸优化问题之间的关系,我们引入了与拉格朗日问题相关的原问题和对偶问题的概念:

原问题

考虑如下的优化问题:

min ⁡ x [ max ⁡ α , β : α i ≥ 0 , ∀ i L ( x , α , β ) ] ⎵ 这 部 分 称 作 θ P ( x ) = min ⁡ x θ P ( x ) ( P ) \min_x\underbrace{[\max_{\alpha,\beta:\alpha_i\ge0,\forall i}\mathcal{L}(x,\alpha,\beta)]}_{这部分称作\theta_\mathcal{P}(x)}=\min_x\theta_\mathcal{P}(x)\qquad\qquad(P) xminθP(x) [α,β:αi0,imaxL(x,α,β)]=xminθP(x)(P)

上面的等式中,函数 θ P : R n → R \theta_\mathcal{P}:R^n\rightarrow R θP:RnR被称作原目标(primal objective,), 右边的无约束极小化问题称为原问题(primal problem)。 在通常情况下,当 g i ( x ) ≤ 0 , i = 1 , … , m g_i(x)\le 0,i=1,\dots,m gi(x)0,i=1,,m以及 h i ( x ) = 0 , i = 1 , … , p h_i(x)=0,i=1,\dots,p hi(x)=0,i=1,,p时,一个点 x ∈ R n x\in R^n xRn被称作原可行域(primal feasible)。 我们通常使用向量 x ∗ ∈ R n x^*\in R^n xRn代表 ( P ) (P) (P)式的解。我们令 p ∗ = θ P ( x ∗ ) p^*=\theta_\mathcal{P}(x^*) p=θP(x)代表原目标的最优值。

对偶问题

通过对上述最小化和最大化顺序的转换,我们得到了一个完全不同的优化问题:

max ⁡ α , β : α i ≥ 0 , ∀ i [ min ⁡ x L ( x , α , β ) ] ⎵ 这 部 分 称 作 θ D ( α , β ) = max ⁡ α , β : α i ≥ 0 , ∀ i θ D ( α , β ) ( D ) \max_{\alpha,\beta:\alpha_i\ge0,\forall i}\underbrace{[\min_x\mathcal{L}(x,\alpha,\beta)]}_{这部分称作\theta_\mathcal{D}(\alpha,\beta)}=\max_{\alpha,\beta:\alpha_i\ge 0,\forall i}\theta_\mathcal{D}(\alpha,\beta)\qquad\qquad(D) α,β:αi0,imaxθD(α,β) [xminL(x,α,β)]=α,β:αi0,imaxθD(α,β)(D)

这里的函数 θ D : R m × R p → R \theta_\mathcal{D}:R^m\times R^p\rightarrow R θD:Rm×RpR被称作对偶目标(dual objective), 右边的约束最大化问题称为对偶问题(dual problem)。 通常情况下,当 α i ≥ 0 , i = 1 , … , m \alpha_i\ge 0,i=1,\dots,m αi0,i=1,,m时,我们称 ( α , β ) (\alpha,\beta) (α,β)对偶可行域(dual feasible)。 我们通常使用向量对 ( α ∗ , β ∗ ) ∈ R m × R p (\alpha^*,\beta^*)\in R^m\times R^p (α,β)Rm×Rp代表 ( D ) (D) (D)式的解。我们令 θ D ( α ∗ , β ∗ ) \theta_\mathcal{D}(\alpha^*,\beta^*) θD(α,β)代表对偶目标的最优值。

1.3 原问题的解释

首先观察到,原目标函数 θ P ( x ) \theta_\mathcal{P}(x) θP(x)是一个关于 x x x的凸函数 3 ^3 3。为了解释原问题,注意到:

3 原目标函数是凸函数的原因
为了解释原因,注意到:

θ P ( x ) = max ⁡ α , β : α i ≥ 0 , ∀ i L ( x , α , β ) = max ⁡ α , β : α i ≥ 0 , ∀ i [ f ( x ) + ∑ i = 1 m α i g i ( x ) + ∑ i = 1 p β i h i ( x ) ] ( 3 ) \theta_\mathcal{P}(x) = \max_{\alpha,\beta:\alpha_i\ge0,\forall i}\mathcal{L}(x,\alpha,\beta) = \max_{\alpha,\beta:\alpha_i\ge0,\forall i}[f(x)+\sum_{i=1}^m\alpha_ig_i(x)+\sum_{i=1}^p\beta_ih_i(x)]\qquad\qquad(3) θP(x)=α,β:αi0,imaxL(x,α,β)=α,β:αi0,imax[f(x)+i=1mαigi(x)+i=1pβihi(x)](3)

从这个式子中,我们可以观察到 g i ( x ) g_i(x) gi(x)是一个关于 x x x的凸函数。因为 α i \alpha_i αi被限制为非负数,所以对于所有的 i i i,都满足 α i g i ( x ) \alpha_ig_i(x) αigi(x)是凸函数。类似的,因为 h i ( x ) h_i(x) hi(x)是线性函数,所以每一个 β i h i ( x ) \beta_ih_i(x) βihi(x)都是关于 x x x(不用管 β i \beta_i βi的符号)的凸函数。由于凸函数的和总是凸函数,我们可以得出括号内的整体是一个关于 x x x的凸函数。最后,凸函数集合的最大值也是一个凸函数(自己证明一下!),因此我们可以得出 θ P ( x ) \theta_\mathcal{P}(x) θP(x)是一个关于 x x x的凸函数。

θ P ( x ) = max ⁡ α , β : α i ≥ 0 , ∀ i L ( x , α , β ) ( 4 ) = max ⁡ α , β : α i ≥ 0 , ∀ i [ f ( x ) + ∑ i = 1 m α i g i ( x ) + ∑ i = 1 p β i h i ( x ) ] ( 5 ) = f ( x ) + max ⁡ α , β : α i ≥ 0 , ∀ i [ ∑ i = 1 m α i g i ( x ) + ∑ i = 1 p β i h i ( x ) ] ( 6 ) \begin{aligned} \theta_\mathcal{P}(x) &= \max_{\alpha,\beta:\alpha_i\ge0,\forall i}\mathcal{L}(x,\alpha,\beta) \qquad\qquad&(4)\\ &= \max_{\alpha,\beta:\alpha_i\ge0,\forall i}[f(x)+\sum_{i=1}^m\alpha_ig_i(x)+\sum_{i=1}^p\beta_ih_i(x)]&(5)\\ &=f(x)+\max_{\alpha,\beta:\alpha_i\ge0,\forall i}[\sum_{i=1}^m\alpha_ig_i(x)+\sum_{i=1}^p\beta_ih_i(x)]&(6) \end{aligned} θP(x)=α,β:αi0,imaxL(x,α,β)=α,β:αi0,imax[f(x)+i=1mαigi(x)+i=1pβihi(x)]=f(x)+α,β:αi0,imax[i=1mαigi(x)+i=1pβihi(x)](4)(5)(6)

可以看到这样一个事实:函数 f ( x ) f(x) f(x)不依赖于 α \alpha α或者 β \beta β。只考虑括号内的符号,可以注意到:

  • 如果任意 g i ( x ) > 0 g_i(x)>0 gi(x)>0,则使括号内表达式最大化需要使对应的 α i \alpha_i αi为任意大的正数;但是,如果 g i ( x ) ≤ 0 g_i(x)\le 0 gi(x)0,且需要 α i \alpha_i αi非负,这就意味着调节 α i \alpha_i αi达到整体最大值的设置为 α i = 0 \alpha_i= 0 αi=0,此时的最大值为 0 0 0

  • 类似地,如果任意 h i ( x ) ≠ 0 h_i(x) \ne 0 hi(x)̸=0,则要使括号内表达式最大化,需要选择与 h i ( x ) h_i(x) hi(x)符号相同且任意大的对应 β i \beta_i βi;但是,如果 h i ( x ) = 0 h_i(x)=0 hi(x)=0,则最大值与 β i \beta_i βi无关,只能取 0 0 0

把这两种情况放在一起,我们看到如果 x x x是在原可行域内(即 g i ( x ) ≤ 0 , i = 1 , … , m g_i(x)\le 0,i=1,\dots,m gi(x)0,i=1,,m以及 h i ( x ) = 0 , i = 1 , … , p h_i(x)=0,i=1,\dots,p hi(x)=0,i=1,,p)的,则括号内表达式的最大值为 0 0 0,但如果违反任何约束,则最大值为 ∞ \infin 。根据前面的讨论,我们可以写出以下的式子:

θ P ( x ) = f ( x ) ⎵ 原 目 标 ( o r i g i n a l o b j e c t i v e ) + { 0 如 果 x 在 原 始 可 行 域 内 ∞ 如 果 x 不 在 原 始 可 行 域 内 ⎵ 为 了 “ 跨 域 ( c a r v i n g a w a y ) ” 不 可 行 解 的 障 碍 函 数 ( 7 ) \theta_\mathcal{P}(x) = \underbrace{f(x)}_{原目标(original\quad objective)} + \underbrace{\begin{cases} 0& 如果x在原始可行域内\\ \infin& 如果x不在原始可行域内 \end{cases} }_{为了“跨域(carving\quad away)”不可行解的障碍函数}\qquad(7) θP(x)=(originalobjective) f(x)+(carvingaway) {0xx(7)

因此,我们可以将原始目标 θ P ( x ) \theta_\mathcal{P}(x) θP(x)理解为原问题凸目标函数的一个修正版本,其区别是不可行解(即那些违法限制条件的 x x x的集合)含有目标值 ∞ \infin 。直观地说,我们可以考虑如下式子:

max ⁡ α , β : α i ≥ 0 , ∀ i [ ∑ i = 1 m α i g i ( x ) + ∑ i = 1 p β i h i ( x ) ] = { 0 如 果 x 在 原 始 问 题 的 可 行 域 内 ∞ 如 果 x 不 在 原 始 问 题 可 行 域 内 ( 8 ) \max_{\alpha,\beta:\alpha_i\ge0,\forall i}[\sum_{i=1}^m\alpha_ig_i(x)+\sum_{i=1}^p\beta_ih_i(x)]=\begin{cases} 0& 如果x在原始问题的可行域内\\ \infin& 如果x不在原始问题可行域内 \end{cases}\qquad(8) α,β:αi0,imax[i=1mαigi(x)+i=1pβihi(x)]={0xx(8)

作为一种障碍函数(“barrier” function),它防止我们将不可行点作为优化问题的候选解。

1.4 对偶问题的解释

对偶目标函数 θ D ( α , β ) \theta_\mathcal{D}(\alpha,\beta) θD(α,β)是一个关于 α \alpha α β \beta β的凸函数 4 ^4 4。为了解释对偶问题,我们首先做如下观察:

4 对偶目标函数是凸函数的原因
为了解释原因,注意到:

θ D ( α , β ) = min ⁡ x L ( x , α , β ) = min ⁡ x [ f ( x ) + ∑ i = 1 m α i g i ( x ) + ∑ i = 1 p β i h i ( x ) ] ( 9 ) \theta_\mathcal{D}(\alpha,\beta) = \min_{x}\mathcal{L}(x,\alpha,\beta) = \min_{x}[f(x)+\sum_{i=1}^m\alpha_ig_i(x)+\sum_{i=1}^p\beta_ih_i(x)]\qquad\qquad(9) θD(α,β)=xminL(x,α,β)=xmin[f(x)+i=1mαigi(x)+i=1pβihi(x)](9)

从这个式子中,我们可以观察到对于任意固定值 x x x,等式中括号里面是一个关于 α \alpha α β \beta β的仿射函数,因此是凸函数。由于凹函数集合的最小值也是凹函数,我们可以得出结论 θ D ( α , β ) \theta_\mathcal{D}(\alpha,\beta) θD(α,β)是一个关于 α \alpha α β \beta β的凸函数。

引理 1 如果 ( α , β ) (\alpha,\beta) (α,β)为对偶可行域(dual feasible)。则 θ D ( α , β ) ≤ p ∗ \theta_\mathcal{D}(\alpha,\beta)\le p^* θD(α,β)p

证明。观察如下的式子:

θ D ( α , β ) = min ⁡ x L ( x , α , β ) ( 10 ) ≤ L ( x ∗ , α , β ) ( 11 ) = f ( x ∗ ) + ∑ i = 1 m α i g i ( x ∗ ) + ∑ i = 1 p β i h i ( x ∗ ) ( 12 ) ≤ f ( x ∗ ) = p ∗ ( 13 ) \begin{aligned} \theta_\mathcal{D}(\alpha,\beta) &= \min_{x}\mathcal{L}(x,\alpha,\beta) \qquad\qquad&(10)\\ &\le \mathcal{L}(x^*,\alpha,\beta)&(11)\\ &= f(x^*)+\sum_{i=1}^m\alpha_ig_i(x^*)+\sum_{i=1}^p\beta_ih_i(x^*)&(12)\\ &\le f(x^*)=p^*&(13) \end{aligned} θD(α,β)=xminL(x,α,β)L(x,α,β)=f(x)+i=1mαigi(x)+i=1pβihi(x)f(x)=p(10)(11)(12)(13)

这里,第一步和第三步分别直接遵循对偶目标函数和拉格朗日函数的定义。第二步是根据不能等号前面的表达式的意思是 x x x在的所有可能值上使得函数 L ( x , α , β ) \mathcal{L}(x,\alpha,\beta) L(x,α,β)为最小的那个值,最后一步是根据 x ∗ x^* x是在原可行域内的这个事实得出的,并且等式 ( 8 ) (8) (8)也暗示等式 ( 12 ) (12) (12)的后两项必须是非正数。

引理表明,给定任何对偶可行的 ( α , β ) (\alpha,\beta) (α,β),对偶目标 θ D ( α , β ) \theta_\mathcal{D}(\alpha,\beta) θD(α,β)提供了原问题优化值 p ∗ p^* p的一个下界。由于对偶问题涉及到在所有对偶可行域 ( α , β ) (\alpha,\beta) (α,β)上使对偶目标最大化。因此,对偶问题可以看作是对可能的最紧下界 p ∗ p^* p的搜索。这就对任何原始和对偶优化问题对产生了一个性质,这个性质被称为弱对偶(weak duality):

引理 2 (弱对偶)。对于任何一对原始的和对偶的问题, d ∗ ≤ p ∗ d^*\le p^* dp

显然,弱对偶性是引理 1 1 1使用 ( α , β ) (\alpha,\beta) (α,β)作为对偶可行点的结果。对于一些原始/对偶优化问题,一个更强的可以成立的结果,其被称为强对偶性(strong duality):

引理 3 (强对偶)。对于满足一定被称为约束规定(constraint qualifications) 的技术条件的任何一对原问题和对偶问题, 可得到 d ∗ = p ∗ d^*= p^* d=p

存在许多不同的约束条件,其中最常调用的约束条件称为Slater条件(Slater’s condition): 如果存在一个所有不等式约束(即 g i ( x ) &lt; 0 , i = 1 , … , m g_i(x)&lt;0,i=1,\dots,m gi(x)<0,i=1,,m)都严格满足的可行原始解 x x x,则原始/对偶问题对满足Slater条件。在实际应用中,几乎所有的凸问题都满足某种约束条件,因此原问题和对偶问题具有相同的最优值。

1.5 互补松弛性

凸优化问题强对偶性的一个特别有趣的结果是互补松弛性(complementary slackness)(或KKT互补):

引理 4 (互补松弛性)。如果强对偶成立,则对于每一个 i = 1 , … , m i=1,\dots,m i=1,,m都有 α i ∗ g ( x i ∗ ) = 0 \alpha_i^*g(x_i^*)=0 αig(xi)=0

证明。假设强对偶性成立。主要是复制上一节的证明,注意这下面的式子:

p ∗ = d ∗ = θ D ( α ∗ , β ∗ ) = min ⁡ x L ( x , α ∗ , β ∗ ) ( 14 ) ≤ L ( x ∗ , α ∗ , β ∗ ) ( 15 ) = f ( x ∗ ) + ∑ i = 1 m α i ∗ g i ( x ∗ ) + ∑ i = 1 p β i ∗ h i ( x ∗ ) ( 16 ) ≤ f ( x ∗ ) = p ∗ ( 17 ) \begin{aligned} p^*=d^*=\theta_\mathcal{D}(\alpha^*,\beta^*) &amp;= \min_{x}\mathcal{L}(x,\alpha^*,\beta^*) \qquad\qquad&amp;(14)\\ &amp;\le \mathcal{L}(x^*,\alpha^*,\beta^*)&amp;(15)\\ &amp;= f(x^*)+\sum_{i=1}^m\alpha_i^*g_i(x^*)+\sum_{i=1}^p\beta_i^*h_i(x^*)&amp;(16)\\ &amp;\le f(x^*)=p^*&amp;(17) \end{aligned} p=d=θD(α,β)=xminL(x,α,β)L(x,α,β)=f(x)+i=1mαigi(x)+i=1pβihi(x)f(x)=p(14)(15)(16)(17)

由于这个一系列式子中的第一个和最后一个表达式是相等的,因此每个中间表达式也是相等的。从式子 ( 16 ) (16) (16)减去式子 ( 17 ) (17) (17)的左半边,我们得到:

∑ i = 1 m α i ∗ g i ( x ∗ ) + ∑ i = 1 p β i ∗ h i ( x ∗ ) = 0 ( 18 ) \sum_{i=1}^m\alpha_i^*g_i(x^*)+\sum_{i=1}^p\beta_i^*h_i(x^*)=0\qquad\qquad(18) i=1mαigi(x)+i=1pβihi(x)=0(18)

但是,回忆一下每个 α i ∗ \alpha_i^* αi是非负的,每个 g i ( x ∗ ) g_i(x^*) gi(x)是非负的,并且由于 x ∗ x^* x ( α ∗ , β ∗ ) (\alpha^*,\beta^*) (α,β)分别是原可行域和对偶可行域,所以每个 h i ( x ∗ ) h_i(x^*) hi(x)都是零。因此, ( 18 ) (18) (18)表示的是所有非正项之和等于零的一个式子。很容易得出结论,求和中的所有单独项本身都必须为零(因为如果不为零,求和中就没有允许总体和保持为零的补偿正项)。

互补松弛性可以用许多等价的方式来表示。一种特别的方法是如下的条件对:

α i ∗ &gt; 0 ⟹ g i ( x ∗ ) = 0 ( 19 ) g i ( x ∗ ) &lt; 0 ⟹ α i ∗ = 0 ( 20 ) \begin{aligned} \alpha_i^*&gt;0 &amp;\Longrightarrow g_i(x^*)=0\qquad\qquad &amp;(19) \\ g_i(x^*)&lt;0 &amp;\Longrightarrow\alpha_i^*=0\qquad\qquad &amp;(20) \end{aligned} αi>0gi(x)<0gi(x)=0αi=0(19)(20)

在这个形式中,我们可以看到,无论何时任意 α i ∗ \alpha_i^* αi都严格大于零,因此这就意味着相应的不等式约束必须保证等式成立。我们将其称为有效约束(active constraint)。 在支持向量机(SVMs)的情况下,有效约束也称为支持向量(support vectors)。

1.6 KKT条件

最后,根据到目前为止的所有条件,我们就可以描述原始对偶优化对的最优条件。我们有如下的定理:

定理 1.1 假设 x ∗ ∈ R n , α ∗ ∈ R m , β ∗ ∈ R p x^*\in R^n,\alpha^*\in R^m,\beta^*\in R^p xRn,αRm,βRp满足以下条件:

  1. (原始的可行性) g i ( x ∗ ) ≤ 0 , i = 1 , … , m g_i(x^*)\le 0,i=1,\dots,m gi(x)0,i=1,,m以及 h i ( x ∗ ) = 0 , i = 1 , … , p h_i(x^*)=0,i=1,\dots,p hi(x)=0,i=1,,p
  2. (对偶可行性) α i ∗ ≥ 0 , i = 1 , … , m \alpha_i^*\ge 0,i= 1,\dots,m αi0,i=1,,m
  3. (互补松弛性) α i ∗ g i ( x ∗ ) = 0 , i = 1 , … , m \alpha_i^*g_i(x^*)=0,i= 1,\dots,m αigi(x)=0,i=1,,m
  4. (拉格朗日平稳性) ∇ x L ( x ∗ , α ∗ , β ∗ ) = 0 \nabla_x\mathcal{L}(x^*,\alpha^*,\beta^*)=0 xL(x,α,β)=0

x ∗ x^* x是原优化, ( α ∗ , β ∗ ) (\alpha^*,\beta^*) (α,β)是对偶优化。更进一步,如果强对偶成立,则任意原优化 x ∗ x^* x以及对偶优化 ( α ∗ , β ∗ ) (\alpha^*,\beta^*) (α,β)必须满足条件 1 1 1到条件 4 4 4

这些条件被称为Karush-Kuhn-Tucker (KKT)条件。 5 ^5 5

5 顺便提一下,KKT定理有一段有趣的历史。这个结果最初是由卡鲁什在1939年的硕士论文中推导出来的,但直到1950年被两位数学家库恩和塔克重新发现,才引起人们的注意。约翰在1948年也推导出了本质上相同结果的一个变体。关于为什么这个结果在近十年中有如此多的迭代版本都被忽视的有趣历史解释,请看这篇论文:
Kjeldsen, T.H. (2000) A contextualized historical analysis of the Kuhn-Tucker Theorem in nonlinear programming: the impact of World War II. Historica Mathematics 27: 331-361.

下一篇:凸优化学习(六)——一个简单的对偶实例

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值