【零基础入门】凸优化1:怎么培养研究能力,从模型 + 优化开始!

本文介绍了凸优化的概念,其在机器学习中的重要性,以及如何通过动态变化趋势求解最大值或最小值。讨论了凸函数与非凸函数的区别,以及不同优化问题类别如带条件、离散与连续、平滑与非平滑的特点和求解方法。强调了凸优化在找到全局最优解的优势。
摘要由CSDN通过智能技术生成

 


凸优化是什么

基本上,机器学习就是 模型 + 优化。

重要性亦如,程序 = 数据结构 + 算法,缺一不可。

如果你只学模型,你就缺了一条腿,走的不稳不快,没核心竞争力。

学了凸优化,看论文就会很轻松,就能理解数学公式在做什么,就喜欢看数学公式了。

就和别的数学不一样,你学了在应用里基本用不到,但你会凸优化,你可以根据任务改更好的损失函数、在原有模型上创新。

应用优化、科研论文必备。

凸优化,目的是求一个函数的最大值或最小值。

怎么求最大值、最小值

像以前学习的求最大值、最小值算法(如堆、快排),都是在一个有无限集合的函数。

现在我们面临的是一个无限的集合,我们不可能穷尽所有的可能性。

在以前,我们把最优化问题看成是若干数量比较大小的问题。

而凸优化是看成研究函数动态变化趋势的问题了,变成了寻找函数变化拐点的问题。

这里转换的核心是,从静态的数值比较变成动态的函数变换趋势。

假设有一条山坡,我们想要找到这条山坡上的最高点。我们可以使用变换趋势来帮助我们找到最高点。

  • 变换趋势:函数在该点的变化率,上升、下降、不变

我们的目标是找到变换趋势等于零的点,也就是山坡上的平稳点。

这些点是可能的最高点、最低点。

  • 观察变换趋势的符号变化
  • 在找到变换趋势等于零的点之后,看看它前后的点,如果从正变为负,那么这个点就是山坡上的最高点
  • 之前为正代表一直在上升,而在这个点之后,山坡开始下降
  • 这个变换趋势,在数学中叫导数

虽然这个方法,适用于任何函数,把求最大值问题就变成了简单的解方程的问题。

但ta找的最大值可能是局部最大值,而不是全局最大值。

比如上图,有左右两个高点,都满足:

  • 变换趋势等于零的条件
  • 变换趋势符号从正变成零,再变成负这个条件

但是最大值只能有一个,由于左边的那个点比右边的要高一些,因此左边的是真正的最大值,右边的是局部最大值(极大值)。

那如何在很多的那个局部的极大值中找到最大值的方法?

  • 目前依然没有很好的方法系统性地解决这个问题,只能一个个比较。

这个问题在机器学习中尤为突出,因为我们通常需要在复杂的函数空间中找到最大值,而找到了最大值,很可能不过是很多局部极大值中的一个而已。

那你说学习是不是要最优化算法,帮助我们找到更大的局部最大值,或者全局最大值!!

最优化是寻找函数的最优解,凸优化是最优化的一个子集。

好处在于,对于一个凸优化问题,我们可以通过凸优化算法找到全局最优解,而不仅仅是局部最优解。

这是凸优化的一个重要优势,凸优化问题具有全局最优解的保证。

如果你懂得识别凸函数,能在同样条件下,把模型设计成偏向凸函数,那你就能找到全局最优解。

说实话,你搞机器学习,你面对的不都是别人解决好的问题,因为你在高科技公司的话,你面临的大多是尚未解决的问题。

同行极大概率找到都是比较大的局部最优解,那不就是你大显神威的时候吗!

优化问题的形式

任何一个优化问题都可以写成:

M i n i m i z e f 0 ( x ) f i < = 0 , g j ( x ) = 0. Minimizef_{0}(x) \\f_{i}<=0, \\g_{j}(x)=0. Minimizef0(x)fi<=0,gj(x)=0.

  1. M i n i m i z e f 0 ( x ) Minimize f_0(x) Minimizef0(x): 这是凸优化问题的目标,表示我们的目的是找到一个变量x的值,使得函数 f 0 ( x ) f_0(x) f0(x) 的值尽可能小。

  2. f i ( x ) < = 0 f_i(x) <= 0 fi(x)<=0: 这些是所谓的不等式约束。 f i ( x ) f_i(x) fi(x) 表示不同的函数,每个函数都有一个对应的不等式。i的范围是从1到某个整数,它表示有多少个这样的约束。这些约束限制了解决方案的可行性,即我们不能随便选择任何值来最小化 f 0 ( x ) f_0(x) f0(x);解决方案必须使所有的 f i ( x ) f_i(x) fi(x) 都小于或等于0。

  3. g j ( x ) = 0 g_j(x) = 0 gj(x)=0: 是等式约束,用 g j ( x ) g_j(x) gj(x) 表示。j的范围同样表示有多少个这样的约束。等式约束必须被严格遵守,意味着解决方案必须使所有的 g j ( x ) g_j(x) gj(x) 恰好等于0。

将这些信息放在一起,我们可以这样理解这个公式:我们的目标是找到一组变量x的值,这组值不仅要使目标函数 f 0 ( x ) f_0(x) f0(x) 的值最小化,而且还要满足所有的不等式约束 f i ( x ) < = 0 f_i(x) <= 0 fi(x)<=0 和所有的等式约束 g j ( x ) = 0 g_j(x) = 0 gj(x)=0

这就像是你在玩一场游戏,目标是得分最低(最小化f_0(x)),同时你必须遵守游戏的规则(满足不等式和等式约束)。

优化问题类别1:凸函数 和 非凸函数

想象山的形状,就像一个凸形的曲线。

如果你在凸形的曲线里面放一个小球,无论小球在哪个位置,它最终都会滚到最低点。

在数学中,这个凸形的曲线就可以用凸函数来描述。

凸函数的优化问题非常重要,因为它们通常有唯一的最低点(全局最小值),就像碗底一样。

所以,当你的目标是最小化一个凸函数时,你可以使用任意的算法(比如梯度下降法)来寻找这个全局最小值,而不用担心找到一个“伪”最小值(局部最小值)。

但如果是非凸函数,会有很多局部最小值,要选择合适的算法,但也不容易找到全局最小值。

在处理非凸函数优化时,可以采取以下几种策略:

  • 局部搜索方法:这类方法从某个初始点出发,通过迭代的方式尝试找到局部最优解。例如梯度下降、牛顿法等。它们通常会收敛到最近的局部最小值,但不保证找到全局最小值。

  • 全局优化算法:这些算法旨在搜索整个函数空间以找到全局最小值。例如模拟退火、遗传算法、粒子群优化等。这些方法可能会消耗更多的计算资源,但更有可能接近或找到全局最优解。

  • 启发式方法:这类方法包括对问题的特殊理解和创造性的算法设计,如分枝定界、割平面方法等。它们通常利用问题的特定结构来缩小搜索范围并找到更好的解。

  • 凸松弛:当面对一个难以直接解决的非凸问题时,可以尝试将其松弛为一个凸问题,例如通过引入额外的变量或者放松一些约束条件。这样虽然可能无法得到原问题的精确解,但可以获得一个近似解,有时这个近似解足够接近真实的全局最优解。

  • 集成方法:将上述方法组合使用,例如先用全局优化算法找到一个不错的起点,然后再使用局部搜索方法进行精细调整。

优化问题类别2:带条件 和 无条件

这种类别的优化问题就像是你在玩一个游戏,但是有一些规则限制你的动作。

在数学中,这些规则被称为约束条件。

这些约束可以是等式(比如,你需要在一个特定的预算内花费),也可以是不等式(比如,你不能超过一定的重量或体积)。

当你的目标是找到某个函数的最大值或最小值,但同时要满足一些额外的条件时,你就面临着一个带条件的优化问题。

这种问题需要特别的技巧来解决,因为你不能只关注函数值的优化,还要确保所有的约束都得到满足。

线性规划和非线性规划就是处理这类问题的常用方法。

优化问题类别3:离散 和 连续

这个类别的区分是根据优化问题的变量是离散的还是连续的。

离散就像计数一样,你可以数1、2、3,但不能数1.5、2.5等。

而连续则像用尺子量长度一样,可以量到任何小数点后的值。

离散优化问题通常涉及整数、图或网络等,在这类问题中,变量只能取有限的、分开的值。

举个例子,旅行商问题就是一个经典的离散优化问题,你需要找到一条路径,经过一系列城市一次且仅一次,并最终回到起点,同时路径长度最短。

连续优化问题中,变量可以在某个区间内任意取值。

比如,在设计一座桥时,你可能会调整桥的长度、宽度和曲率,这些都是连续的变量,你需要找到最佳的组合,以确保桥既安全又经济。

优化问题类别4:平滑 和 非平滑

平滑优化问题是指目标函数具有良好的数学性质,特别是它们在定义域内是连续可导的,这意味着它们有着连续的梯度(或者说斜率)。

你画这样一个函数的图像,你会得到一个光滑的曲线或曲面,没有任何尖锐的拐点或者断点。

这种光滑性让函数容易使用基于梯度的方法来优化,因为你可以通过计算梯度(梯度下降法或牛顿法等)来找到函数值上升或下降最快的方向。

常见的平滑函数包括多项式函数、指数函数和对数函数。

 

非平滑优化问题中的目标函数可能不是处处连续可导的,这意味着函数的图像可能有尖角、棱角或者不连续的跳跃。

你画这样一个函数的图像,你的笔在某些点上可能需要“跳过”一个间断,或者在转角处突然改变方向。

非平滑优化问题通常更难处理,因为没有连续的梯度信息可以指导优化过程,因此可能需要使用更复杂的算法,如次梯度方法、近似梯度方法或者基于非梯度的优化策略或启发式算法来求解。

常见的例子包括绝对值函数、最大值/最小值函数(如ReLU激活函数)。

 


最简单的情况是:无条件、凸函数、连续、平滑,这种情况特别好算的。

像其他复杂的情况,那需要学习各个优化算法了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值