最优化学习 数值优化的例子:实现最小二乘法

全部笔记的汇总贴:最优化学习目录


上溢和下溢

这里先介绍一个数值优化常出现的一个概念上溢和下溢
下溢(Underflow):当接近零的数被四舍五⼊为零时发生下溢。
上溢(Overflow):当⼤量级的数被近似为 ∞ \infin − ∞ -\infin 时发⽣上溢。

必须对上溢和下溢进行数值稳定的⼀个例子是softmax 函数。softmax 函数经常用于预测与范畴分布相关联的概率,定义为:
softmax ⁡ ( x ) i = exp ⁡ ( x i ) ∑ j = 1 n exp ⁡ ( x j ) \operatorname{softmax}(\boldsymbol{x})_{i}=\frac{\exp \left(x_{i}\right)}{\sum_{j=1}^{n} \exp \left(x_{j}\right)} softmax(x)i=j=1nexp(xj)exp(xi)

最小二乘法介绍

我们接下来会分别用梯度下降法、牛顿法、约束优化法分别解我们的最小二乘法,那我们首先要明白最小二乘法。

最小二乘法(Least Squares)是回归分析中的一种标准方法,它是用来近似超定系统(Overdetermined System)答案的一种方法。超定系统是指数学中的一种概念,一组包含未知数的方程组中,如果方程的数量大于未知数的数量,那么这个系统就是一个超定系统(超定方程组)。超定系统(超定方程组)一般是无解的,只能求近似解。而最小二乘法就是求超定方程组近似解的一种方法。
举个通俗的例子,如下二维平面图中有很多个点,假设我们想用一条直线来拟合数据,即期望能找到一条直线能最好地穿过这些数据点。
在这里插入图片描述
我们这里引入线性最小二乘法:

min ⁡ f ( x ) = 1 2 ∥ A x − b ∥ 2 2 \min f(\boldsymbol{x})=\frac{1}{2}\|\boldsymbol{A} \boldsymbol{x}-\boldsymbol{b}\|_{2}^{2} minf(x)=21Axb22

梯度下降法 Gradient Decent

在我的最速下降法(steepest Descent)中介绍了梯度下降法和最速下降法,梯度下降法就是一阶可微的最速下降法,在这里我们可以对其进行求解。
假设我们希望找到最小化该式的 x x x值,那我们需要得到它的梯度:
∇ x f ( x ) = A ⊤ ( A x − b ) = A ⊤ A x − A ⊤ b \nabla_{x} f(x)=A^{\top}(A x-b)=A^{\top} A x-A^{\top} b xf(x)=A(Axb)=AAxAb
梯度下降法建议我们新的点更新为
x ′ = x − ϵ ∇ x f ( x ) x^{\prime}=x-\epsilon \nabla_{x} f(x) x=xϵxf(x)
其中ϵ 为学习率(learning rate),是⼀个确定步长大小的正标量。

首先我们给定初始数据

# 导入相应的库
import numpy as np
import numpy.linalg as la
x0 = np.array([1.0, 1.0, 1.0])
A = np.array([[1.0, -2.0, 1.0], [0.0, 2.0, -8.0], [-4.0, 5.0, 9.0]])
b = np.array([0.0, 8.0, -9.0])
epsilon = 0.001
delta = 1e-3
# 给定A,b,真正的解x 为[29, 16, 3]

梯度下降法

"""
梯度下降法
"""
def matmul_chain(*args): # 定义一个矩阵连乘的函数
    if len(args) == 0:
        return np.nan
    result = args[0]
    for x in args[1:]:
        result = result @ x
    return result

def gradient_decent(x, A, b, epsilon, delta):
    while la.norm(matmul_chain(A.T, A, x) - matmul_chain(A.T, b)) > delta: # 默认ord = 2,没有到达边界
        x -= epsilon*(matmul_chain(A.T, A, x) - matmul_chain(A.T, b)) # 更新x
    return x

gradient_decent(x0, A, b, epsilon, delta)

array([27.82277014, 15.34731055, 2.83848939])

牛顿法(Newton’s Method)

具体的推导过程和结果可以看牛顿法(Newton’s method)
我们的牛顿法基于我们的优化函数能够二阶可微,这样我们就可以利用一个二阶泰勒展开来近似 x 0 x^{0} x0 f ( x ) f(x) f(x):
f ( x ) ≈ f ( x ( 0 ) ) + ( x − x ( 0 ) ) ⊤ ∇ x f ( x ( 0 ) ) + 1 2 ( x − x ( 0 ) ) ⊤ H ( x ( 0 ) ) ( x − x ( 0 ) ) f(x) \approx f\left(x^{(0)}\right)+\left(x-x^{(0)}\right)^{\top} \nabla_{x} f\left(x^{(0)}\right)+\frac{1}{2}\left(x-x^{(0)}\right)^{\top} \mathrm{H}\left(x^{(0)}\right)\left(x-x^{(0)}\right) f(x)f(x(0))+(xx(0))xf(x(0))+21(xx(0))H(x(0))(xx(0))
然后根据对 f ( x ) f(x) f(x)求导可以得到我们临界点:

x ∗ = x ( 0 ) − H ( x ( 0 ) ) − 1 ∇ x f ( x ( 0 ) ) \boldsymbol{x}^{*}=\boldsymbol{x}^{(0)}-\mathrm{H}\left(\boldsymbol{x}^{(0)}\right)^{-1} \nabla_{\boldsymbol{x}} f\left(\boldsymbol{x}^{(0)}\right) x=x(0)H(x(0))1xf(x(0))

牛顿法迭代地更新近似函数和跳到近似函数的最小点可以比梯度下降法更快地到达临界点。这在接近全局极小时是⼀个特别有用的性质,但是在鞍点附近是有害的。

对于我们的最小二乘法,我们可以计算得到,我们的海瑟矩阵其实就是 H = A ⊤ A \mathrm{H}=A^{\top} A H=AA
进一步计算我们的最优解
x ∗ = x ( 0 ) − ( A ⊤ A ) − 1 ( A ⊤ A x ( 0 ) − A ⊤ b ) = ( A ⊤ A ) − 1 A ⊤ b x^{*}=x^{(0)}-\left(A^{\top} A\right)^{-1}\left(A^{\top} A x^{(0)}-A^{\top} b\right)=\left(A^{\top} A\right)^{-1} A^{\top} b x=x(0)(AA)1(AAx(0)Ab)=(AA)1Ab

"""
牛顿法
"""

def newton(x, A, b, delta):
    x = matmul_chain(np.linalg.inv(matmul_chain(A.T, A)), A.T, b)
    return x

newton(x0, A, b, delta)

array([29., 16., 3.])

我们可以看出来,在我们的牛顿法(Newton’s method)中提过,对于二阶的函数,我们几乎可以达到一步就到的情况,这个就是其中的例子

约束优化

这一部分内容详细推导可以看我的KKT条件(最优解的一阶必要条件) 约束优化问题
我们希望通过 m m m个函数 g ( i ) g^{(i)} g(i) n n n个函数 h ( j ) h^{(j)} h(j) 描述 S S S,那么 S S S可以表示为 S = { x ∣ ∀ i , g ( i ) ( x ) = 0 \mathrm{S}=\left\{\boldsymbol{x} \mid \forall i, g^{(i)}(\boldsymbol{x})=0\right. S={xi,g(i)(x)=0 and ∀ j , h ( j ) ( x ) ≤ 0 } \left.\forall j, h^{(j)}(\boldsymbol{x}) \leq 0\right\} j,h(j)(x)0}。其中涉及 g ( i ) g^{(i)} g(i)的等式称为等式约束,涉及 h ( j ) h^{(j)} h(j)的不等式称为不等式约束。
我们为每个约束引⼊新的变量 λ i \lambda_{i} λi α j \alpha_{j} αj,这些新变量被称为KKT 乘子。⼴义拉格朗日式可以如下定义:
L ( x , λ , α ) = f ( x ) + ∑ i λ i g ( i ) ( x ) + ∑ j α j h ( j ) ( x ) L(\boldsymbol{x}, \lambda, \alpha)=f(\boldsymbol{x})+\sum_{i} \lambda_{i} g^{(i)}(\boldsymbol{x})+\sum_{j} \alpha_{j} h^{(j)}(\boldsymbol{x}) L(x,λ,α)=f(x)+iλig(i)(x)+jαjh(j)(x)
可以通过优化无约束的广义拉格朗日式解决约束最小化问题:
min ⁡ x max ⁡ λ max ⁡ α , α ≥ 0 L ( x , λ , α ) \min _{x} \max _{\lambda} \max _{\alpha, \alpha \geq 0} L(x, \lambda, \alpha) xminλmaxα,α0maxL(x,λ,α)
优化该式与下式等价:
min ⁡ x ∈ S f ( x ) \min _{x \in \mathbb{S}} f(\boldsymbol{x}) xSminf(x)
针对上述实例,约束优化: x ⊤ x ≤ 1 \boldsymbol{x}^{\top} \boldsymbol{x} \leq 1 xx1
引⼊广义拉格朗日式:
L ( x , λ ) = f ( x ) + λ ( x ⊤ x − 1 ) L(\boldsymbol{x}, \lambda)=f(\boldsymbol{x})+\lambda\left(\boldsymbol{x}^{\top} \boldsymbol{x}-1\right) L(x,λ)=f(x)+λ(xx1)
解决以下问题:
min ⁡ x max ⁡ λ , λ ≥ 0 L ( x , λ ) \underset{\boldsymbol{x}}{\min } \max _{\lambda, \lambda \geq 0} L(\boldsymbol{x}, \lambda) xminλ,λ0maxL(x,λ)
关于 x x x L a g r a n g i a n Lagrangian Lagrangian微分,我们得到方程:
A ⊤ A x − A ⊤ b + 2 λ x = 0 \boldsymbol{A}^{\top} \boldsymbol{A} \boldsymbol{x}-\boldsymbol{A}^{\top} \boldsymbol{b}+2 \lambda \boldsymbol{x}=\mathbf{0} AAxAb+2λx=0
得到解的形式是: x = ( A ⊤ A + 2 λ I ) − 1 A ⊤ b \boldsymbol{x}=\left(\boldsymbol{A}^{\top} \boldsymbol{A}+2 \lambda \boldsymbol{I}\right)^{-1} \boldsymbol{A}^{\top} \boldsymbol{b} x=(AA+2λI)1Ab

λ \lambda λ的选择必须使结果服从约束,可以对 λ \lambda λ梯度上升找到这个值:
∂ ∂ λ L ( x , λ ) = x ⊤ x − 1 \frac{\partial}{\partial \lambda} L(x, \lambda)=\boldsymbol{x}^{\top} \boldsymbol{x}-1 λL(x,λ)=xx1

"""
约束优化,约束解的大小
"""
def constrain_opti(x, A, b, delta):
    k = len(x)
    lamb = 0
    while np.abs(np.dot(x.T, x) - 1) > 1e-5: # delta设为5e-2, 最优设为0
        x = matmul_chain(np.linalg.inv(matmul_chain(A.T, A)+2*lamb*np.identity(k)), A.T, b)
        lamb += np.dot(x.T, x)-1
    return x

constrain_opti(x0, A, b, delta)

array([ 0.23637902, 0.05135858, -0.94463626])

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

风信子的猫Redamancy

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值