目录
前言
本文其实值属于:程序员的数学【AIoT阶段二】 的一部分内容,本篇把这部分内容单独截取出来,方便大家的观看,本文介绍 最优化,本文涵盖了一些计算的问题并使用代码进行了实现,安装代码运行环境见博客:最详细的Anaconda Installers 的安装【numpy,jupyter】(图+文),如果你只是想要简单的了解有关线代的内容,那么只需要学习一下博文:NumPy从入门到高级,如果你是跟着博主学习 A I o T AIoT AIoT 的小伙伴,建议先看博文:数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解),如果你没有 P y t h o n Python Python 基础,那么还需先修博文:Python的进阶之道【AIoT阶段一(上)】(十五万字博文 保姆级讲解)
一、最优化概念
1.1 最大值最小值
🚩最优化问题就是求 f ( x ) f(x) f(x) 的极大值或者极小值
我们往往求极小值,在这里
x
x
x 是优化变量,就是自变量,
f
(
x
)
f(x)
f(x) 称为目标函数,可能还带有约束条件,有些优化问题既有等式约束,又有不等式约束
m
a
x
f
(
x
)
→
m
i
n
(
−
f
(
x
)
)
maxf(x)\rightarrow min(-f(x))
maxf(x)→min(−f(x))
g
i
(
x
)
=
0
,
i
=
1
,
2
,
3
,
.
.
.
,
n
g_i(x)=0,i=1,2,3,...,n
gi(x)=0,i=1,2,3,...,n
h
i
(
x
)
≤
0
,
i
=
1
,
2
,
3
,
.
.
.
,
n
h_i(x)≤0,i=1,2,3,...,n
hi(x)≤0,i=1,2,3,...,n
满足这种约束条件,并且还在 f ( x ) f(x) f(x) 定义域之内的那些 x x x 构成的集合叫可行域 D D D。
1.2 局部极小值
🚩函数 f ( x ) f(x) f(x) 在 x 0 x_0 x0 的领域 [ x 0 − Δ x , x 0 + Δ x ] [x_0-\Delta x,x_0+\Delta x] [x0−Δx,x0+Δx]内存在,并且 f ( x ) ≥ f ( x 0 ) f(x)≥f(x_0) f(x)≥f(x0),那么 f ( x 0 ) f(x_0) f(x0) 为局部最小值点
1.3 全局最小值
🚩其实初中我们就学求极值的问题了,比如二次函数抛物线的顶点就是极大值或者极小值,高中我们也会有求极值的题目,算一个非常复杂的函数的极值,借用初等数学一些的技巧来完成的。而真正的飞跃是发生在大学里面,微积分这门课为求解极值提供了一个统一的方法,就是找它导数等于 0 0 0 的点,如果是多元函数的话,我们说它的梯度等于 0 0 0,我们去解方程组就可以了,在机器学习里面我们遇到的几乎所有的函数都是可导的。光滑即可导 f ′ ( x ) = 0 f'(x)=0 f′(x)=0
局部最小值, 通过大量实践发现在高维度的优化问题中,局部最小值和全局最小值通常没有太大的区别,甚至在有些情况下局部最小值有更好的归纳能力(泛化能力)。
二、求导与迭代求解
2.1 求导遇到的问题
🚩前面咱们说了求极值就是导数或梯度等于 0 0 0,找到疑似的极值,就是驻点: ᐁ f ( x ) = 0 , f ′ ( x ) = 0 ᐁf(x)=0,f'(x)=0 ᐁf(x)=0,f′(x)=0
有了微积分里面这样的手段,只要函数可导,我们求解不就行了?
因为很多时候去求方程等于 0 0 0 或方程组等于 0 0 0 的根并不是那么容易,比如:
f ( x , y ) = x 3 − 5 x 2 + e x y − 3 y 4 + 12 y 2 + 1024 s i n ( x y ) f(x,y)=x^3-5x^2+e^{xy}-3y^4+12y^2+1024sin(xy) f(x,y)=x3−5x2+exy−3y4+12y2+1024sin(xy)
分别对
x
,
y
x,y
x,y 求偏导:
令上面的导数为 0 0 0 依然无法求解。对于 5 5 5 次或以上的代数方程它都没有求根公式了,所以这个思路看上去很美,但是实际上是行不通的,我们得想其它的办法。
2.2 近似迭代求解
🚩近似求解,我们先给个初始的值 x 0 x_0 x0 ,看看它是不是极值点,当然得满足等式或者不等式约束,它如果不是,我们想办法再前进一步,只要我们得 x n x_n xn 它越来越接近我们的极值点,那这个问题不就解决了嘛!
x 0 → x 1 → x 2 → . . . x n x_0\rightarrow x_1\rightarrow x_2\rightarrow...x_n x0→x1→x2→...xn
因此,构造一个序列,满足这样一个极限,当 k k k 趋近于 + ∞ +\infty +∞ 的时候, f ( x k ) f(x_k) f(xk) 这点的梯度值极限趋近于 0 0 0 的话,那我们就找到了函数的驻点
l i m k → + ∞ ᐁ f ( x k ) = 0 lim_{k\rightarrow+\infty}ᐁf(x_k)=0 limk→+∞ᐁf(xk)=0
由此我们要解决的核心问题就变成了,怎么从当前一个点移动到下一个点上面去,也就是怎么从 x k x_k xk 到 x k + 1 x_{k+1} xk+1,迭代法是我们计算数学中经常采用的一种方法,它不单单可以求极值,还可以用来求方程组的解,包括线性方程,非线性方程,一个矩阵的特征值等等。
在最优化中,这种迭代思想又叫梯度下降!
三、梯度下降
3.1 公式推导
🚩数值优化算法,是求近似解,而不是理论上面的精确解
下面我们来推导这个公式,需要用到多元函数泰勒展开公式(函数
f
(
x
)
f(x)
f(x) 在
x
0
x_0
x0 的某个邻域内),最后加上一个高阶无穷小
如果我们忽略高阶无穷小,也就是说
x
x
x 它是属于
x
0
x_0
x0 的
δ
\delta
δ 邻域里面的话,那么等号就会变成约等于,那么我们把
f
(
x
0
)
f(x_0)
f(x0) 放到等号左边:
这时要想下降的更快,就要让等式右边得到最小值,即当 c o s θ = − 1 cos\theta=-1 cosθ=−1,下降的幅度最大!
单位向量代表的是方向,长度为 1 1 1 的向量,即模为 1 1 1 的向量称为单位向量。
向量乘以标量不会改变它的方向,只会改变它的幅值。这就是缩放向量的方法。
所以一个向量可以表示为一个标量乘以一个单位向量。
为了使得下降幅度最大,那么向量
(
x
−
x
0
)
(x-x_0)
(x−x0)【这里的向量用
θ
\theta
θ 表示】 的方向和梯度的方向相反:
分母是个标量,可以并入到
η
\eta
η 中,简化为:
需要注意的是,
x
x
x 和
x
0
x_0
x0 离的充分近,也就是在它的
δ
\delta
δ 邻域里面,才能忽略掉泰勒展开里面的一次以上的项,否则就不能忽略它了,它就不是高阶无穷小了,约等于的条件就不成立了,所以
η
\eta
η 步长不能够太大,由此我们就得到了梯度下降法的公式。
实现细节问题:
- 初始值的设定,随机或者设定满足约束条件
- 步长的设定,一个比较小的,也可以动态的调整
- 循环终止的判定,达到 m a x i t e r a t i o n max_iteration maxiteration(最大迭代次数);上一次减下一次的更新,差异基本不变时
3.2 代码演示
3.2.1 创建模拟数据
import numpy as np
import matplotlib.pyplot as plt
# 构建方程
f = lambda x : (x - 3.5) ** 2 - 4.5 * x + 10
# 导函数
g = lambda x : 2 * (x - 3.5) - 4.5
# 创建模拟数据并可视化
x = np.linspace(0, 11.5, 100)
y = f(x)
plt.plot(x, y)
_ = plt.scatter(5.75, f(5.75), color = 'red', s = 30)
3.2.2 迭代法求解(梯度下降)
eta = 0.3 # 学习率
# 随机(瞎蒙),初始值x0
x = np.random.randint(0, 12, size = 1)[0]
# 多次while 循环,每次梯度下降,更新,记录一下上一次的值
# 比较精确度
# 一开始故意设置差异,目的为了有区分,不能一上来就停止
last_x = x + 0.1
# 精确度,人为设定
precision = 0.0001
print('-----------------随机x是:', x)
# 每次梯度下降,求解出来的x值,一开始随机给的
x_ = [x] # Python中列表
count = 0
while True:
if np.abs(x - last_x) < precision: # 更新时,变化甚微,满足精确度,终止
break
# 更新,梯度下降
# x是当前数值,赋值给上一个值
last_x = x
count += 1
x = x - eta * g(x) # 梯度下降公式
x_.append(x)
print('+++++++++++++++更新之后的x是:%0.5f' % (x))
print('+++++++++++++++梯度下降次数:', count)
# x1是NumPy数组
x1 = np.linspace(0, 11.5, 100)
y1 = f(x1)
plt.figure(figsize = (9, 6))
plt.plot(x1, y1)
# 散点图
x_ = np.array(x_)
_ = plt.scatter(x_, f(x_), color = 'red', s = 30)
3.2.3 迭代法求解(退出条件最大迭代次数)
eta = 0.2 # 学习率
# 随机(瞎蒙),初始值
x = np.random.randint(0, 12, size = 1)[0]
# 多次while 循环,每次梯度下降,更新,记录一下上一次的值
# 一开始故意设置差异,目的为了有区分,不能一上来就停止
last_x = x + 0.1
# 最大迭代次数,人为设定
count = 30
print('-----------------随机x是:', x)
# 每次梯度下降,求解出来的x值,一开始随机给的
x_ = [x] # Python中列表
for i in range(count):
# 更新,梯度下降
# x是当前数值,赋值给上一个值
last_x = x
x = x - eta * g(x) # 梯度下降公式
x_.append(x)
print('+++++++++++++++更新之后的x是:%0.5f' % (x))
# x1是NumPy数组
x1 = np.linspace(0, 11.5, 100)
y1 = f(x1)
plt.figure(figsize = (9, 6))
plt.plot(x1, y1)
# 散点图
x_ = np.array(x_)
plt.scatter(x_, f(x_), color = 'red', s = 30)
四、牛顿法
4.1 牛顿法原理
🚩牛顿法的原理是使用函数 f ( x ) f(x) f(x) 的泰勒级数的前面几项来寻找方程 f ( x ) = 0 f(x)=0 f(x)=0 的根。
将函数
f
(
x
)
f(x)
f(x) 在
x
0
x_0
x0 处展开成泰勒级数:
取线性部分,作为
f
(
x
)
f(x)
f(x) 的近似,则
f
(
x
0
)
+
f
′
(
x
0
)
(
x
−
x
0
)
=
0
f(x_0)+f'(x_0)(x-x_0)=0
f(x0)+f′(x0)(x−x0)=0 的解来近似
f
(
x
)
=
0
f(x)=0
f(x)=0 的解,其解为:
由于
f
(
x
)
f(x)
f(x) 的近似只是一阶展开,因此
x
1
x_1
x1 并非
f
(
x
)
=
0
f(x)=0
f(x)=0 的解,只能说
f
(
x
1
)
f(x_1)
f(x1) 比
f
(
x
0
)
f(x_0)
f(x0) 更接近 0 。于是,考虑迭代求解:
迭代过程如下:
4.2 牛顿法代码演示
def f(x):
return (x - 3) ** 3 # 定义函数
def fd(x):
return 3 * ((x - 3) ** 2) # 定义一阶导数
y = [0] # 初始值
def newtonMethod(n, assum):
count = n
x = assum
next_x = 0
A = f(x) # 函数值
B = fd(x) # 导数值
print('A = %0.4f' % (A) + ', B = %0.4f' % (B) + ', time = %d' % (count))
if f(x) == 0.0: # 是不是f(x) = 0的解
return count, x
else: # 不是方程 = 0的解,迭代更新
next_x = x - A / B
y.append(next_x)
print('next_x = %0.4f' % (next_x))
if abs(A - f(next_x)) < 1e-6: # 满足精确值,退出,什么都没做,只是打印
# 设置迭代跳出条件,同时输出满足f(x) = 0的x值
print('方程的解为: f(x) = 0, x = %0.4f'% (next_x))
else: # 不满足精确度,再次调用这个方法,递归
return newtonMethod(n + 1, next_x)
# 设置从0开始计数,x0 = 4
newtonMethod(0, 0)
x = np.linspace(0, 6, 100)
plt.plot(x, f(x)) # 原图
_ = plt.scatter(y, f(np.array(y)), color = 'red') # 更新过程点
4.3 求解最优化问题
🚩牛顿法最优化公式如下:
其中:
假设现在函数
f
(
x
)
f(x)
f(x) 迭代了
k
k
k 次的值为
x
k
x_k
xk,则在
x
k
x_k
xk 上进行二阶泰勒展开可近似得到以下公式:
我们要求得
f
(
x
)
f(x)
f(x) 的极小值,则必要条件是
f
(
x
)
f(x)
f(x) 在极值点处的一阶导数为
0
0
0,因为我们把每轮迭代求得的满足目标函数极小值的
x
x
x 作为下一轮迭代的值,因此我们可以假设第
k
+
1
k+1
k+1 轮的值就是最优解:
ᐁ f ( k + 1 ) = 0 ᐁf(_{k+1})=0 ᐁf(k+1)=0
代入二阶泰勒展开并求导可得:
令:
其中
H
H
H 表示
H
e
s
s
i
a
n
Hessian
Hessian 矩阵
可得最终的优化公式为:
复杂问题简单化,多元函数降级为一元函数,那么最优化牛顿法泰勒二阶展开的更新公式为:
梯度下降法只用到了一阶导数的信息,牛顿法既用到了一阶导数的信息,也用到了二阶导数的信息。梯度下降法是用线性函数来代替目标函数,牛顿法是用二次函数来代替目标函数,所以说牛顿法的收敛速度是更快的。
4.4 求解最优化代码演示
4.4.1 使用牛顿法求最优化(11步得到答案,2.0062)
import numpy as np
import matplotlib.pyplot as plt
# 构建方程
f = lambda x : (x - 2) ** 4 + 10
# 导函数
g1 = lambda x : 4 * (x - 2) ** 3
g2 = lambda x : 12 * (x - 2) ** 2
# 创建模拟数据并可视化
x = np.linspace(1, 3, 100)
y = f(x)
plt.plot(x, y)
y = [2.8]
def newtonMethod(n, assum):
count = n
x = assum
next_x = 0
A = g1(x)
B = g2(x)
print('A = %0.4f' % (A) + ',B = %0.4f' % (B) + ',次数 = %d' % (count))
if f(x) == 0.0:
return count, x
else:
next_x = x - A / B
y.append(next_x)
print('next_x = %0.4f' % (next_x),)
if abs(f(x) - f(next_x)) < 1e-8:
# 设置迭代跳出条件,同时输出满足f(x) = 0的x值
print('方程的解为: f(x) = 0, x = %0.4f'% (next_x))
else:
return newtonMethod(n + 1, next_x)
# 设置从0开始计数,x0 = 4
newtonMethod(0, 2.8)
_ = plt.scatter(y,f(np.array(y)), color = 'red')
4.4.2 使用梯度下降求最优解(207步得到答案,2.04349)
import numpy as np
import matplotlib.pyplot as plt
# 构建方程
f = lambda x : (x - 2) ** 4 + 10
# 导函数
g1 = lambda x : 4 * (x - 2) ** 3
eta = 0.3 # 学习率
# 随机(瞎蒙),初始值
x = 2.8
# 多次while 循环,每次梯度下降,更新,记录一下上一次的值
# 比较精确度
# 一开始故意设置差异,目的为了有区分,不能一上来就停止
last_x = x + 0.1
# 精确度,人为设定
precision = 1e-8
print('-----------------随机x是:', x)
# 每次梯度下降,求解出来的x值,一开始随机给的
x_ = [x] # Python中列表
count = 0
while True:
if np.abs(f(x) - f(last_x)) < precision: # 更新时,变化甚微,满足精确度,终止
break
# 更新,梯度下降
# x是当前数值,赋值给上一个值
last_x = x
count += 1
x = x - eta * g1(x) # 梯度下降公式
x_.append(x)
print('+++++++++++++++更新之后的x是:%0.5f' % (x))
print('+++++++++++++++梯度下降次数:', count)
# x1是NumPy数组
x1 = np.linspace(0, 11.5, 100)
y1 = f(x1)
plt.figure(figsize = (9, 6))
plt.plot(x1, y1)
# 散点图
x_ = np.array(x_)
_ = plt.scatter(x_, f(x_), color = 'red', s = 30)
4.5 拟牛顿法
🚩如上节所说,牛顿法虽然收敛速度快,但是需要计算海塞矩阵的逆矩阵 H − 1 H^{-1} H−1,而且有时目标函数的海塞矩阵无法保持正定(多元函数微分学),从而使得牛顿法失效。为了克服这两个问题,人们提出了拟牛顿法。这个方法的基本思想是:不用二阶偏导数而构造出可以近似海塞矩阵(或海塞矩阵的逆)的正定对称阵。不同的构造方法就产生了不同的拟牛顿法。
下面我们先推导一下拟牛顿条件,它给“对海塞矩阵(或海塞矩阵的逆)做近似”提供了理论指导,指出了用来近似的矩阵应该满足的条件。
对 ᐁ f ( x ) ᐁf(x) ᐁf(x) 做二阶泰勒展开我们得到了以下近似:
令:
所以:
取
x
=
x
k
+
1
x=x_{k+1}
x=xk+1,得到:
令
y
k
=
g
k
+
1
−
g
k
,
δ
k
=
x
k
+
1
−
x
k
y_k=g_{k+1}-g_k,\delta_k=x_{k+1}-x_k
yk=gk+1−gk,δk=xk+1−xk,则:
以上即为拟牛顿条件!
在拟牛顿法中,选择 G k G_k Gk 作为 H k − 1 H_k^{-1} Hk−1 的近似或选择 B k B_k Bk 作为 H k H_k Hk 的近似,并使得它们满足上述牛顿条件即可。不同的拟牛顿法,区别就在于如何确定 G k G_k Gk 或 B k B_k Bk
常用的拟牛顿算法有: D F P DFP DFP、 B F G S BFGS BFGS、 L _ B F G S L\_BFGS L_BFGS 算法。这里不做展开!
五、坐标下降法
🚩坐标下降法就是分治法的思想。
m i n f ( x ) , x = ( x 1 , x 2 , . . . , x n ) minf(x),x=(x_1,x_2,...,x_n) minf(x),x=(x1,x2,...,xn)
它的思想是按住其它的不动,只优化其中一个比如 x 1 x_1 x1,那就把多元函数求极值问题变成了一元函数求极值问题,这样优化的难度就小了很多,紧接着我们把其它的按住不动,再优化 x 2 x_2 x2,一直到 x n x_n xn,一轮完了之后再回来优化 x 1 x_1 x1。至于一个变量怎么解,可以用梯度下降或者牛顿法等优化算法来求解,具体问题具体分析。
S
V
M
SVM
SVM 中的
S
M
O
SMO
SMO 算法就是把其中两个拿出来优化,其它的固定不动;
l
i
b
l
i
n
e
a
r
liblinear
liblinear 库也大量的使用坐标下降法来求解的。直观的看就好比:
我们把所有的变量 x 1 , x 2 , . . . , x n x_1,x_2,...,x_n x1,x2,...,xn 都优化一遍,就好比梯度下降迭代一次,这种方法它也有很大好处,就是计算的工作量小很多。
六、最优化算法瓶颈
🚩前面梯度下降法,还有牛顿法求极值的依据都是 ᐁ f ( x k ) = 0 ᐁf(x_k)=0 ᐁf(xk)=0,而前面我们也说了函数在某一点的导数或梯度等于 0 0 0 就是驻点,它只是函数取得极值的必要条件,不是充分条件,也就是说无法推导出
ᐁ f ( x k ) = 0 → m i n x k ᐁf(x_k)=0\rightarrow minx_k ᐁf(xk)=0→minxk
所有我们前面介绍的数值优化算法,都会面临两个问题。
6.1 局部极值问题
🚩这个问题好歹是个局部极值,只不过不是全局极值,理论上我们要求全局最优解的话,我们要把所有极小值找出来,你可能要不断的去设置不同的初始迭代点,反复的求解让它收敛到不同的局部最小值,然后来比较谁最小来找到一个全局最小值。
6.2 鞍点问题
🚩前面我们说过一元函数 x 3 x^3 x3 函数,在坐标为 0 0 0 处它是驻点,但是它连局部最小值都不是,对应多元函数来说,我们称之为鞍点(既不是极大值点也不是极小值点的临界点,叫做鞍点)。严格定义是,在这一点它的 H e s s i a n Hessian Hessian 矩阵是不定的,既不正定也不负定,这样它就即不是极小值的点也不是极大值的点。
在物理上要广泛一些,指在一个方向是极大值,另一个方向是极小值的点。
七、凸优化问题
🚩前面我们说过数值优化面临两个问题,一个是局部极值问题,和鞍点问题,我们能不能避免这两个问题呢?
只要我们对优化问题进行限定就可以,这类问题有两个限定条件
1、优化变量的可行域必须是凸集
2、优化函数必须是个凸函数
同时满足这两个限定条件的问题,叫做凸优化问题,从而才有局部极小值进而全局极小值。
八、凸集
🚩凸集的定义:对于一个点的集合
C
C
C,有
x
,
y
x,y
x,y 它都是属于
C
C
C 里面的两个点,它们两点的连线中任何一点也是属于集合
C
C
C 的。例如立方体就是凸集。
欧式空间
R
n
R^n
Rn
它的意义在于,很多时候可行域就是欧式空间,那肯定是凸集。在凸集的前提下,才可以进行最优化问题求解。
九、凸函数
🚩凸函数在函数上任意找两点它们的连续就是割线上的值比对应的
f
(
x
)
f(x)
f(x) 的值要大
函数的二阶导数是和函数的凹凸性是有关系的,凹凸性怎么定义的?
先来做简单的介绍,这里先记住凸函数是向下凸的, 反正就是凹的,是否是凸函数可以通过二阶导数,如果二阶导数是大于
0
0
0 就是凸函数
如果一元函数,那么
f
′
′
(
x
)
≥
0
f''(x) ≥ 0
f′′(x)≥0 就是凸函数。多元函数
H
e
s
s
i
a
n
Hessian
Hessian 矩阵是半正定的,它就是凸函数;多元函数
H
e
s
s
i
a
n
Hessian
Hessian 矩阵是正定的,它就是严格的凸函数。
如果每个函数 f ( x i ) f(x_i) f(xi) 都是凸函数,那么它们的非负线性组合 f ( x ) = ∑ i = 1 n w i f i ( x ) f(x)=\sum\limits^n_{i=1}w_if_i(x) f(x)=i=1∑nwifi(x) i f if if w i ≥ 0 w_i≥0 wi≥0 也是凸函数。
十、凸优化表达形式
🚩凸优化的定义是目标函数是凸函数,可行域是个凸集,如果有这两个限定条件的话,局部最优解一定是全局最优解。
凸优化一般表达形式:
m i n f ( x ) , x ∈ C min f(x),x\in C minf(x),x∈C,其中 C C C 是凸集
带等式约束的表达形式:
带不等式约束的表达形式:
往往我们需要去证明的一些机器学习算法它们都是凸优化问题,比如逻辑回归,
S
V
M
SVM
SVM,线性回归等,证明它的可行域是凸集,目标函数是凸函数就可以了,凸优化规避了局部最小值问题,而且也规避了鞍点问题,
f
(
x
)
f(x)
f(x) 是凸函数,它的
H
e
s
s
i
a
n
Hessian
Hessian 矩阵是半正定的,它是半正定的也就规避了鞍点问题。
十一、拉格朗日乘子法
🚩高等数学和微积分的时候我相信大家都学过,用来求解等式约束下的极值问题的
拉格朗日乘子法,把对
x
x
x 带约束条件的优化问题,转化为不带约束条件的优化问题
L
(
x
,
λ
)
L(x,\lambda)
L(x,λ) 叫做
L
a
g
r
a
n
g
e
Lagrange
Lagrange 函数(拉格朗日函数),
λ
\lambda
λ 叫做拉格朗日乘子(其实就是系数)。求
L
(
x
,
λ
)
L(x,\lambda)
L(x,λ) 对
x
x
x 的偏导数,对
λ
\lambda
λ 求偏导数,令导数为
0
0
0,求解出
x
,
λ
x,\lambda
x,λ 的值,那么
x
x
x 就是函数
f
(
x
)
f(x)
f(x) 在附加条件
h
(
x
)
h(x)
h(x) 下的极值点。
以上就是拉格朗日乘数法,通俗理解拉格朗日乘数法就是将含有等式条件约束优化问题转换成了无约束优化问题构造出拉格朗日函数 L ( x , λ ) L(x,\lambda) L(x,λ)
十二、KKT条件
🚩假设我们面对的是不等式条件约束优化问题,如下:
针对上式,显然是一个不等式约束最优化问题,不能再使用拉格朗日乘数法,因为拉格朗日乘数法是针对等式约束最优化问题。
拉格朗日乘数法的扩展,用来解决带不等式约束条件的一种理论结果:
约束条件为:
- ᐁ L ( x , λ ) = 0 ᐁL(x,\lambda)=0 ᐁL(x,λ)=0
- λ ≥ 0 \lambda≥0 λ≥0
- λ h ( x ) = 0 \lambda h(x)=0 λh(x)=0
上面条件就称为 K K T KKT KKT 条件。
十三、拉格朗日对偶
🚩凸优化,非线性规划问题,甚至是运筹学里面的线性规划问题都会涉及这个概念,它的意义是把原始问题转化为另外一个问题来求解,但是转化之后的问题要容易求解一点,拉格朗日乘数法的扩展,用来解决既带等式约束条件,又带不等式约束条件的一种方法通过把原问题转换为对偶问题来求解,很多时候对偶问题比原问题更容易求解。
m i n f ( x ) minf(x) minf(x)
约束条件如下::
h
i
(
x
)
≤
0
,
i
=
1
,
2
,
.
.
.
,
n
h_i(x)≤0,i=1,2,...,n
hi(x)≤0,i=1,2,...,n
构建一个广义的拉格朗日函数,所谓广义就是还包括不等式约束条件。在下面式子中你会发现对
x
x
x 的约束没有了,虽然有个对
μ
\mu
μ 的约束:
原始问题
我们定义对偶问题为(对上面方程的求解等效求解下面方程):
其实就是把
m
i
n
min
min 和
m
a
x
max
max 对调了一下,当然对应的变量也要变换。
对偶问题有什么好处呢?对于原问题,我们要先求里面的 m a x max max,再求外面的 m i n min min。而对于对偶问题,我们可以先求里面的 m i n min min。有时候,先确定里面关于 x x x 的函数最小值,比原问题先求解关于 λ \lambda λ 的最大值,要更加容易解。
但是原问题跟对偶问题并不是等价的,这里有一个强对偶性、弱对偶性的概念,弱对偶性是对于所有的对偶问题都有的一个性质。
所有的下凸函数都满足强对偶性,如果两个问题是强对偶的,那么这两个问题其实是等价的问题:
这里给出一个弱对偶性的推导过程:
其中
x
∗
,
λ
∗
x^*,\lambda^*
x∗,λ∗ 是函数取最大值最小值的时候对应的最优解,也就是说,原问题始终大于等于对偶问题: