【最优化】一维搜索技术

一维搜索技术

在第二篇博文《【最优化】最优化的相关条件》中,我们讲述了函数局部(全局)极值点所具有的充分条件、必要条件以及充分必要条件;但在现实复杂问题的背景下,我们很难使用“一阶导数为0”这个条件进行求解。

本节我们就要学习如何利用计算机进行最优值的求解,先从最基础的一维函数讲起。
后续我们会学习到,多元函数的优化过内含了一元函数的优化过程。


各类优化算法的基本思路

1. 问题抽象——盲人爬山

简单来说,想象有一个盲人拄着拐杖想要爬到山顶(或回到山脚),他只能通过拐杖去探测当前他所在的位置的局部信息,从而决定当前最优的行走方向,循环往复,直到达到他的目的地。
在这里插入图片描述

  • 盲人与拐杖:因为很多时候即使我们知道目标函数的解析式,也无法清晰地获知图像的性状与全局性质;所以对于图像的全局性质来说,我们是“不可见”的。
  • 用拐杖探测局部信息:我们知道当前点的某些邻域内的函数值,知道该邻域内的某阶梯度值,利用这些信息进行决策。

2. 逐次下降法(Iterative Descent)
在这里插入图片描述

  • 从一个初始点x0出发,计算该点的局部信息
  • 通过这些信息进行决策,选择一个合适的搜索方向
  • 沿着该搜索方向找到下一个点x1,并围绕新的点计算局部信息
  • 重复上述过程,找到一系列点xi(i = 1,2,…n),保证每次f(x)都能减小(如果目标是最小化函数)

3. 考虑的问题

①怎么选择最优方向?
②沿着最优方向走多远?
③怎样保证算法一定能收敛到最优点?
④算法收敛到最优点的速度怎样?


单峰函数

1. 单峰函数的定义

假设函数f(x)在区间[a,b]内的x*处有一个极小点:

那么说f(x)在区间[a,b]上是单峰的,即意味着对于区间[a,b]上的任意一个点x,当x趋向于x*的时候,f(x)的函数值都是减小的

通俗地来说,也就是在区间[a,b]内只能有一个极小值点。

p.s. 本节我们对于一维搜索技术的讨论都是围绕单峰函数而言的。

在这里插入图片描述

2. 重要结论
假设已知f(x)是区间[a,b]上的单峰函数,而且在x*∈[a,b]处取得最小值;
为了可以取到一个包含极小值点x*的更小的子区间(该子区间在[a,b]内),至少需要再计算两次函数值
在这里插入图片描述
p.s. 该结论在后续的搜索技术应用中十分重要。


(一) 二分法

1. 基本思想

根据上文提到的有关需要计算两个新的点,由此来决定新的区间的范围;
二分法就是通过区间中值来确定新区间的两个端点值。

在这里插入图片描述
2. 示例
在这里插入图片描述

【ε的含义】
设第n次迭代得到的区间长度为Ln,则根据上述的推导可知Ln+1 = (Ln+ε)/2,根据收敛性推导可知,最终得到的区间长度不会超过ε,因此ε应该设定为可以接受的误差上界

p.s.上述迭代过程思路十分清晰,可以很容易地使用计算机语言进行实现


(二)区间等分法

因为在上述二分法的思想中,新区间的端点值的确定要经历求中值点→中值点左右取邻域→两邻域点函数值比较的过程,过于繁琐;所以我们想到直接对区间进行划分。

1. 两点等分法

既然要在区间内找到两个点,那么就需要对原区间进行三等分。

在这里插入图片描述
2. 三点等分法

基于两点等分法“计算速率较慢”这一缺点,我们进一步提出了三点等分法,每一次将区间进行四等分,从而得出了三个四等分点作为候选点

在这里插入图片描述
3. 计算量的比较

上述【迭代速率】的比较只是基于区间缩短的快慢而言的,但这并不代表算法快慢的全部,否则读者很容易会产生一个误区——那是不是只要将区间进行越多的等分,那么得到的子区间自然就会缩减的越多?
——但同时也别忘记了,进行更多的等分,需要计算更多的等分点以及该等分点位置上的函数值。

以下我们定性地分析一下两点等分和三点等分整体的算法效率

对于两点等分而言,按照2/3的比率缩减区间,且每轮缩减需要计算两个点;
对于三等分点而言,按照1/2的比率缩减区间,且除了第一轮需要计算三个点以外,其余每轮只需要计算两个点

综上,我们可知【三点等分法】的效率是要高于【两点等分法】的。


【例】三点等分法进行最优点的搜索
在这里插入图片描述


(三)斐波拉契搜索法

从减少计算量的角度出发,为了确定新的区间,每一轮必须有两个候选点(前面给出的结论),有没有可能做到每一轮只需要重新计算一个点,另外一个点可以利用前面已经计算过的结果来实现呢?

1. “Fibonacci”的由来
在这里插入图片描述
因为采用的是二分搜索,所以区间长度的对应关系应该为:Ln = (Ln-1+ε)/2;也就是,Ln-1 = 2Ln+ε。
在这里插入图片描述
从而得到区间长度收敛的“Fibonacci”关系
在这里插入图片描述
2. 算法过程
在这里插入图片描述
3. 示例
在这里插入图片描述
4. 评价

(1)优点
①在同样的轮数下,它可以将搜索区间缩小到一个最小的长度
②没有使用到梯度相关的计算
③方便计算机实现
④每一轮迭代只需要保留四个点
⑤可以事先计算出搜索的误差和不确定性

(2)缺点
计算前迭代次数n和区间摇摆微小量ε需要事先确定
p.s. 这个缺点也可以通过【直接进行迭代计算,当搜索区间“充分小”时就停止迭代】这一机制进行克服;当然这样肯定会损失部分效率。


(四)黄金分割法(0.618法)

1. 基本思想
新区间与旧区间的区间长度保持一个常数不变(在Fibonacci Search中新旧区间的长度并不是一个常数)

比较来看,前面的二分法和区间等分法所得到的新旧区间的长度确实是一个常数,但他们每一次迭代计算新的候选点的数目较多;我们期望的黄金分割法可以在保留“尽可能地少计算新的候选点”的优点下,保持新旧区间的长度不变。

在这里插入图片描述
基于上面的数学关系,在每一轮迭代时都应该满足该等式。经过整理(数学过程略去),可以得到关于比例系数λ的一元二次方程:λ2+λ-1 = 0,求解后保留正根,则可得到λ = 0.618(这也是【0.618法】这个名字的来源)

2. 计算效率
在这里插入图片描述
3. 示例
在这里插入图片描述

黄金分割法的效率其实也要比三点等分法的效率更高:
看起来三点等分法,每一轮迭代都是把区间缩小至原来的一半,但是在计算点数相同的情况下,黄金分割法的效率更高(评价指标主要是区间缩小的程度)。

4. 现有的搜索算法的总结

①目前来说讨论的所有一维搜索技术都可以很容易地编程实现
②但是为了达到一个需要的较高精度,这些算法都需要经过较多轮次的迭代

在实际应用中,我们其实并不需要一维搜索得到的结果的精度有多高。比如在多元优化问题中,我们常常把一个多元优化问题分解成若干个一元优化问题,我们只需要得到各一元优化问题粗略的近似解即可。

多项式类(尤其是二元函数)函数的最优化点是很好求解的,因此我们想——是否可以把我们所需优化求解的任意函数都先用多项式函数近似,通过求解多项式函数的最优解,从而得到原函数的近似最优解


(五)二插法(Quadratic Interpolation)

1. 算法思想与原型

下面的讲述以最小化问题为例

对于当前待优化函数f(x),我们在给定的初始点x0处,根据该点的下降梯度v,要找到一个点x1 = x01v,其中参数λ1必须要保证λ1使得函数f(x0+λv)的值关于λ参数最小。

根据上面的描述,我们可以把这个最小化问题等价于对标量函数g(λ) = f(x0+λv)关于自变量λ的最小化问题。

【参数规定】
因为给定的方向v已经确定是函数f(x)在x0点的下降梯度方向,所以要求λ≥0
同时为了防止在搜索的时候跨步过大导致发散等问题的出现,我们制定了参数λ的上界m。

综上,原来给定的关于函数f(x)的一维优化搜索的问题就转换成了
对于函数g(λ) = f(x0+λv),当0≤λ≤m时的最小化问题

2. 二插法的算法框架
在这里插入图片描述

  • 不论是按照2λ的规律向外拓展,还是按照(1/2)λ向内拓展,这些操作的实质都是为了可以找到三个点,保证拟合出来的二次曲线具有“先下降后上升”的趋势,从而保证了该二次曲线最小值的存在性。
  • 两种情况下,计算除了a,b,c之后,按照公式可以得到候选最优点λhat的值,还要讲该点的函数值和b点的函数值进行比较,才能确定最终的近似解取二者中的哪一个。
    在这里插入图片描述
    3. 示例
    在这里插入图片描述

观察上面两个例子的求解过程,即可知道其求解效率较高,但是精度较低;但这对于未来进行的多函数优化问题并不是大的缺点。


(六)牛顿法

前面讲过的所有算法都没有涉及到【导数】或者【梯度】的概念,牛顿法对此会有此涉及。

1. 算法思路

  • 该算法建立在所求函数必须是至少二阶连续可微的前提下
  • 牛顿法在数值分析中被用于求解方程f(x) = 0的近似解,通过前面的讲解,我们知道一个函数的候选最优点往往会落在其驻点(一阶导数为0的点)上,因此我们可以利用牛顿法来求解一阶导数的零点
    在这里插入图片描述
  • 之前的方法是从一个区间往后搜素下一个区间,而牛顿法是从一个点迭代搜索下一个点

2. 相关结论
①当H(x)是正定阵时(函数f(x)对应就是严格凸函数),算法的收敛速度很快,且与算法的初始点无关。

有关凸函数定义、凸函数的凸性及相关定理的讨论可以参考上一篇博文《【最优化】最优化理论的基本概念》

②但是牛顿法的一个缺点就在于其每一轮迭代都需要计算二阶导数,计算量过大。

但是对于一个二次函数f(x) = (1/2)xTGx+bTx+c来说,它的二阶导对应的Hessian矩阵是一个常矩阵(与x无关);
很显然,根据矩阵的求导运算可以得到:
▽f(x) = Gx+b
2f(x) = G

其二阶导数的确是一个常数矩阵G,那么代入到上图中的迭代公式中,在每一轮迭代只需要求解函数在xn点处的导数即可。

③基于第二点,我们在使用牛顿法的时候,常常把函数近似成二次函数的形式:
在这里插入图片描述
3. 示例
在这里插入图片描述

  • 9
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
逐维学习是一种优化算法中的一种技术,它可以用于解决单目标优化问题。在逐维学习中,每个维度的搜索空间都被分成若干个子空间,然后通过学习每个子空间的最优解来逐步优化整个搜索空间。逐维学习的目标是通过学习每个维度的最优解来提高整体的优化性能。 在Matlab中,可以使用逐维学习算法来解决单目标优化问题。具体步骤如下: 1. 定义目标函数:首先,需要定义一个目标函数,该函数的输入是一个向量,输出是一个标量。目标函数的具体形式根据具体问题而定。 2. 初始化参数:初始化逐维学习算法的参数,包括搜索空间的维度、每个维度的子空间数量、学习率等。 3. 生成初始解:根据搜索空间的维度和每个维度的子空间数量,生成初始解。 4. 迭代优化:在每次迭代中,对于每个维度的子空间,通过学习该子空间的最优解来更新当前解。具体的更新策略可以根据具体问题和算法进行选择。 5. 终止条件:设置终止条件,例如达到最大迭代次数或目标函数值收敛等。 6. 输出结果:输出最优解及对应的目标函数值。 以下是一个使用逐维学习算法解决单目标优化问题的Matlab示例代码: ```matlab % 定义目标函数 function y = objective_function(x) y = x^2; % 以求解x的平方的最小值为例 end % 初始化参数 dimension = 1; % 搜索空间的维度 subspace_num = 10; % 每个维度的子空间数量 learning_rate = 0.1; % 学习率 max_iterations = 100; % 最大迭代次数 % 生成初始解 x = rand(1, dimension); % 生成一个随机初始解 % 迭代优化 for iteration = 1:max_iterations for d = 1:dimension % 子空间的起始和结束位置 start_pos = (d - 1) * subspace_num + 1; end_pos = d * subspace_num; % 在子空间中搜索最优解 best_x = x; best_y = objective_function(x); for i = start_pos:end_pos x(d) = i / subspace_num; % 更新当前解的第d个维度 y = objective_function(x); % 计算目标函数值 if y < best_y best_x = x; best_y = y; end end % 学习最优解 x(d) = x(d) + learning_rate * (best_x(d) - x(d)); end end % 输出结果 disp('最优解:'); disp(x); disp('目标函数值:'); disp(objective_function(x)); ``` 这是一个简单的逐维学习算法的示例,你可以根据具体问题和需求进行修改和扩展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值