《Algorithms for Optimization》第二章笔记

优化是指找到最小化(或最大化)目标函数的设计点。获得一个函数的值如何随着输入的变化而变化是有用的,因为它告诉我们在哪个方向上我们可以改进之前的点,函数值的变化是通过单变量函数的导数和多变量函数的梯度来度量的。

01 求导数的方法

1-1 有限差分方法

通过计算函数在某一点的邻近点处的值的差分,来近似导数,主要包括前向差分、后向差分和中心差分三种形式。
在这里插入图片描述

图1 有限差分方法求导数的不同形式

理论上,步长h越小,通过有限差分法求得的导数值越精确。但实际上由于计算机存储的精度有限,h的值太小会导致数值抵消误差反而使导数计算精度下降。

1-2 复数步进法

复数步进法通过单个函数求值绕过了减法消去的影响,只需在虚方向上走一步之后对函数求一次值。
函数在虚数部分的展开为:
f ( x + i h ) = f ( x ) + i h f ′ ( x ) − h 2 f ′ ′ ( x ) 2 ! − i h 3 f ′ ′ ′ ( x ) 3 ! + ⋯ (1) f(x+ih)=f(x)+ihf'(x)-h^2\frac{f''(x)}{2!}-ih^3\frac{f'''(x)}{3!}+\cdots \tag1 f(x+ih)=f(x)+ihf(x)h22!f′′(x)ih33!f′′′(x)+(1)
仅考虑虚数部分,上式化为:
I m ( f ( x + i h ) ) = h f ′ ( x ) − h 3 f ′ ′ ′ ( x ) 3 ! + ⋯ ⇒ f ′ ( x ) = I m f ( x + i h ) h + h 2 f ′ ′ ′ ( x ) 3 ! − ⋯ = I m ( f ( x + i h ) ) h + O ( h 2 )   a s   h → 0 (2) \begin{align} Im(f(x+ih))=&hf'(x) -h^3\frac{f'''(x)}{3!}+\cdots \\ \Rightarrow f'(x)= & \frac{Imf(x+ih)}{h}+h^2\frac{f'''(x)}{3!}-\cdots \\ = &\frac{Im(f(x+ih))}{h} + O(h^2) \ as \ h\rightarrow0 \end {align} \tag2 Im(f(x+ih))=f(x)==hf(x)h33!f′′′(x)+hImf(x+ih)+h23!f′′′(x)hIm(f(x+ih))+O(h2) as h0(2)
由上式可以求得导数值,而且避免了有限差分法的分子相减过程。
同时(1)式的实数部分为:
R e ( f ( x + i h ) ) = f ( x ) − h 2 f ′ ′ ( x ) 2 ! + ⋯ ⇒ f ( x ) = R e f ( x + i h ) h + h 2 f ′ ′ ′ ( x ) 2 ! − ⋯ (3) \begin{align} Re(f(x+ih))=&f(x) -h^2\frac{f''(x)}{2!}+\cdots \\ \Rightarrow f(x)= & \frac{Ref(x+ih)}{h}+h^2\frac{f'''(x)}{2!}-\cdots \end {align} \tag3 Re(f(x+ih))=f(x)=f(x)h22!f′′(x)+hRef(x+ih)+h22!f′′′(x)(3)
因此仅通过计算 f ( x + i h ) f(x+ih) f(x+ih) 可以同时获得 f ′ ( x ) f'(x) f(x) f ( x ) f(x) f(x) 的值。

1-3 自动微分法

自动微分技术的关键是链式法则的应用。自动微分过程可以通过使用计算图实现自动化,计算图表示一个函数,其中节点是操作,边是输入输出关系。计算图的叶节点是输入变量或常量,终端节点是函数输出的值。图2是函数 f ( a , b ) = l n ( a b + m a x ( a , 2 ) f(a, b)=ln(ab+max(a,2) f(a,b)=ln(ab+max(a,2) 的计算图。

在这里插入图片描述

图2 函数 f(a, b)=ln(ab+max(a,2) 的计算图

利用函数的计算图进行自动微分有两种模式。正向传播模式使用对偶数,并从输入遍历树到输出,而反向传播需要反向通过计算图。

(1)正向传播

以函数 f ( a , b ) = l n ( a b + m a x ( a , 2 ) f(a, b)=ln(ab+max(a,2) f(a,b)=ln(ab+max(a,2) 为例进行说明,计算该函数在 a = 3 , b = 2 a=3,b=2 a=3,b=2 处关于 a a a 的偏导数值:

  • 第一步:传播过程从图的输入节点开始,该节点由函数输入和任意常数值组成。对于这些节点中的每一个输入变量,计算关于 a a a 的偏导数值,如图3所示;

在这里插入图片描述

图3 正向传播第一步
  • 第二步:沿着树向下,一次一个节点,选择输入已经被计算过的节点作为下一个节点。通过传递前一个节点的值来计算下一个节点的值,使用前一个节点的值和它们的偏导数来计算 a a a 的局部偏导数,如图4所示。从而通过一次正向传播获得 ∂ f ∂ a \frac{\partial f}{\partial a} af 的值。

在这里插入图片描述

图4 正向传播第二步

上述过程可以通过计算机编程方便地实现自动化,从而自动对每个节点操作来产生函数关于某变量的函数值及其导数,这是通过引入“对偶数”实现的。

对偶数(Dual numbers)是一种数学概念,扩展了实数的概念,类似于复数的结构。对偶数系统中的每个数可以表示为 a + b ε a+b\varepsilon a+bε 的形式,其中 a a a b b b 是实数,而 ε \varepsilon ε 是对偶单位,满足 ( ε 2 = 0 \varepsilon^2=0 ε2=0)(注意这与复数中的虚数单位 i i i 满足 i 2 = − 1 i^2=-1 i2=1,不同)。

对偶数的一些基本性质包括:

  • 加法:对偶数加法遵循分量加法的规则,即 ( a + b ε ) + ( c + d ε ) = ( a + c ) + ( b + d ) ε (a+b\varepsilon)+(c+d\varepsilon)=(a+c)+(b+d)\varepsilon (a+bε)+(c+dε)=(a+c)+(b+d)ε
  • 乘法:对偶数的乘法利用分配律和 ε 2 = 0 \varepsilon^2=0 ε2=0 的规则,即 ( a + b ε ) ⋅ ( c + d ε ) = a c + ( a d + b c ) ε (a+b\varepsilon)\cdot(c+d\varepsilon)=ac+(ad+bc)\varepsilon (a+bε)(c+dε)=ac+(ad+bc)ε
  • 导数表示:对偶数特别有用的一个性质是它们可以用来表示函数关于变量的值和计算导数。如果有一个函数 R → R \mathbb{R}\rightarrow\mathbb{R} RR,那么该函数在对偶数上的扩展 f ~ ( a + b ε ) = f ( a ) + f ′ ( a ) b ε \tilde{f}(a+b\varepsilon)=f(a)+f'(a)b\varepsilon f~(a+bε)=f(a)+f(a)bε 利用了对偶数的性质来直接给出函数在 a a a点的值和导数。

(2)反向传播

为了计算一个n维函数的梯度,正向传播需要n次得到关于每个变量的导数后才能得到梯度,而反向传播只需要一轮运行就能求出梯度,但反向传播一轮运行需要两次遍历计算图:首先向前传播,在此期间计算必要的中间值,然后向后传播以计算梯度值。(当需要计算多元函数梯度时,反向传播通常比正向传播更可取)

仍以函数 f ( a , b ) = l n ( a b + m a x ( a , 2 ) f(a, b)=ln(ab+max(a,2) f(a,b)=ln(ab+max(a,2) 为例进行说明,用反向传播计算该函数在 a = 3 , b = 2 a=3,b=2 a=3,b=2 处的梯度:

  • 第一步:首先正向传播过一次,从图的输入节点开始,获得中间值及导数程,如图5所示;

在这里插入图片描述

图5 先正向传播获得中间值
  • 第二步:再反向传播,通过链式法则一次获得关于各个变量的导数,从而获得梯度,如图6所示。

在这里插入图片描述

图6 然后反向传播

参考文献

[1] Kochenderfer M J, Wheeler T A. Algorithms for optimization[M]. Mit Press, 2019.

《凸优化算法》是一本关于凸优化算法PDF教材。凸优化是一种重要的数学工具,用于解决许多实际问题,例如最小二乘、线性规划、支持向量机等。这本教材主要介绍了凸优化的基本概念和一些常用的算法。 首先,教材介绍了凸集、凸函数等凸优化的基本概念。凸集是指集合中的任意两点连线上的点也在该集合中,凸函数是指其定义域上的任意两点连线上的函数值都不超过其它点的函数值。凸集和凸函数是凸优化问题的基础。 教材接着介绍了凸优化问题的表达和求解方法。它介绍了线性规划、二次规划、半定规划等凸优化问题的数学表达式,并详细介绍了如何使用凸优化工具箱去求解这些问题。凸优化工具箱是一种可以用来求解凸优化问题的软件,例如CVX、MOSEK等。 此外,教材还介绍了凸优化问题的常用算法。这些算法包括梯度下降法、牛顿法、内点法等。梯度下降法是一种通过迭代寻找凸函数最小值的方法,其基本思想是沿着函数梯度下降的方向进行搜索。牛顿法是一种通过二阶导数信息进行迭代的方法,它能更快地找到凸函数的最小值。内点法是一种使用光滑逼近函数的方法,通过不断接近可行域边界来求解凸优化问题。 总的来说,这本教材介绍了凸优化的基本概念、问题表达和求解方法以及常用算法。它对于希望深入了解凸优化和应用凸优化算法的读者来说是一本很有价值的资料。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值