梯度下降原理(SGD,Adam,BGD,momentum,Adagrad,NAG)

本文深入解析梯度下降算法,涵盖批量、随机及小批量梯度下降的原理与应用,探讨参数初始化、学习率选择等关键问题,介绍SGD+Momentum、NAG、Adagrad等优化算法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

近年来,AI大潮汹涌澎湃,包括机器学习,深度学习,计算机视觉,自然语言处理在内的许多领域都在迅速发展,并取得了显著的成果。每年都会有很多优秀经典的算法提出来,适用于不同的场景。However,现在网络的训练主要还是梯度下降以及从中衍生出的优化算法。想要入门机器学习和深度学习,梯度下降是你绕不过的坑,但今天本文的任务就是要引领大家彻底搞懂梯度下降,在学习中避免掉坑!

梯度下降算法(引言)

训练神经网络的过程实质上是一个优化的过程,我们会定义一个成本函数,比如最小均方差,交叉熵等。本文拿最小均方误差举例子:
pic_center=30*30在这里插入图片描述
在我们的成本函数中,自变量为神经网络的权重,我们的网络在训练过程中就是要不断的根据系统输出进行权重参数的更新,最终寻找到使得成本函数得到最小值的权重集合。随着成本函数的降低,我们的网络的精度随之升高,而权重参数就是使用梯度下降法完成的。梯度下降的原理:学过高数我们都知道,梯度是一个向量,其方向就是函数上升最快的方向,梯度下降就是利用这个性质,在梯度的方向上更新自变量,从而以最快的速度到达函数的极小值点。就简单地拿一个开口像上的二次函数举例,当前点如果处于对称轴左端的话,此时梯度的方向是向下的,为负,我们应用梯度下降法

Alt

可以很明显的看到自变量是向右移动的,即函数最小值的方向;反之,当前点位于对称轴右端的时候亦然。以此类推到多维的复杂函数,道理相似。
现在大概有三种梯度下降算法框架,它们不同之处在于每次学习(更新参数)所需的样本数,每次更新使用的样本数不同会导致学习时间和学习精度也各有差异。

BGD (批量梯度下降法)

批量梯度下降法在训练过程中,每次迭代都要将所有的样本数据输入系统,计算得到总误差之后,将误差经过反向传播一步步地传递到上游,然后缓存每一层的梯度矩阵,进行各层权重参数的更新,附上代码:

在这里插入代码片

使用BGD对网络进行训练,会占用很多我们的计算资源,训练的时间也会变得很长,那我们为什么还要使用BGD呢?这肯定是有道理的,前边把BGD说的一无是处,但其实不尽然,BGD还是有很大的优点的。由于我们每次参数的迭代都要计算所有的样本数据,所以我们计算出来的误差和梯度都是最真实的,这可以确保我们的每次梯度下降都是沿着最符合成本函数的梯度方向进行的。

SGD (随机梯度下降法)

上面说到BGD的计算量太大,下面即将上场的SGD就是来解决这个问题的。SGD每次迭代都是随机输入一个样本,然后对所有的权重进行梯度下降,更新一次,这就大大减少了我们的计算量,但是这样却不能保证我们每次更新的梯度都是沿着正常的方向进行的。因为真正的梯度方向是所有的权重梯度的矢量和,然而我们每次只是随机输入了一个样本,这一个样本并不能适合所有的梯度,所以SGD的梯度下降会出现很多曲折,就相当于我们在走下山的路,但是老是辨不清方向,一会向上走,一会向下走,虽然最终会走到目的地,但是会浪费很长时间。不能采用较大的学习率在此附上SGD的Python代码:

在这里插入代码片

MBGD (小批量梯度下降法)

讲了上述两种梯度下降的框架之后,相信你已经对梯度下降有了一个大致的了解。但是前两种方法的优点和缺点都很明显,有没有一种方法可以中和一下他们呢?of course,MBGS(mini-batch gradient descent)就是来解决这个问题的。结合BGD和SGD,MBGD每次学习都会从样本数据中随机选取一小批输入网络进行计算(选取的样本数目是根据你要解决的问题而定的,一般而言选取范围在[50,256]),然后运行梯度下降算法进行参数更新,这样既减轻了SGD的随机性,又减少了相当一部分的计算量。看到这相信你会说完美,但是世界上又有什么东西是完美的呢。不可避免的,MBGD也有自身的局限性,或者说是传统的梯度下降算法之间普遍存在的问题。下面我们就来说一下:

梯度下降中的“Bug”

参数的初始化

参数的初始化对于模型的训练至关重要。参数初始化的符号和大小都是需要注意的问题。如果我们的参数全部初始化为正数或者负数的话,那么所以参数每次梯度下降的方向都是一样的,失去了学习的多样性,这样我们训练出来的网络过于简单,效果很差。如果我们初始化参数太小,会出现神经元无法激活,因为每往下传递一层,就要乘一次权重,如此下去,只会越来越小,导致大片的神经元变成死区,造成网络瘫痪;如果太大的话会导致网络不收敛,也不能得到训练结果。

学习速率的选择

学习率的选择关系到模型训练的速度和质量,选取的学习速率太小的话,你的模型就会收敛的很慢;选取的太大的话,又很容易发生振荡,导致模型无法收敛,所以我们每次训练的时候都会选取一个合适的范围(一般而言是1e-3~1e-5),每次训练完成然后缩小范围再次训练,直到找出针对问题最好的学习速率。

局部极小值和鞍点

因为我们的模型拟合的函数都是比较复杂的,所以损失函数的形式也会相对复杂,不一定是凸优化,大多部分时候都是非凸的,这个时候,我们的损失函数可能有好多局部极小值点和鞍点,在局部极小值点和鞍点处的梯度都是零,因此学习过程中很可能就卡在局部极小值点和鞍点上,导致我们与最优解失之交臂。

梯度下降优化算法

上边罗列了一堆问题,现在是时候解决了。毕竟问题不解决,他永远是个问题。很久以前大牛们就已经提出了各种优化算法来解决上述问题,让我们一起来看一下。

SGD plus momentum (带动量的梯度下降法)

上面我们讲到了批量梯度下降和小批量梯度下降,以及随机梯度下降,了解了它们的优缺点。但是没有提到的一个它们共有的缺点,就是当它们遇到局部极小值和鞍点的时候就会卡住,因为此时梯度为零,带动量的梯度下降,顾名思义,就是给梯度加上一个动量,这样即使碰到了局部极小值点和鞍点这种梯度为零的情况,也会因为动量的存在而使得参数可以正常更新。(指数加权平均)公式如下:
Alt当我们的调试点跑到局部极小值点或者鞍点的时候,这个时候相当于我们不想跑了,想停下来,但是由于我们有一个初速度的动量,我们还是会继续往前跑一段时间帮助我们跳过局部极小值点和鞍点。除此之外,带动量的随机梯度下降还能有效防止振荡。当前梯度与上一次的梯度方向相同时,梯度更新的跨度就会比较大;方向相反时,又会起到一个抵消的作用,不会产生一个急转弯,而是产生一个小角度的转变,尽量往一条直线上拉(我们可以将动量理解为惯性。当你开始跑步的时候,如果之前你有一个速度,这个时候由于惯性,你跑起来会比较轻松;当你想要往反方向跑的时候,你的惯性又会“拽”着你,让你显得比较吃力)。其数学原理如图所示:
在这里插入图片描述

Nesterov accelerated gradient (NAG)

NAG相比较于上面的动量法,变得更加聪明和具有前瞻性了。其数学原理如图所示:
在这里插入图片描述
我们可以看到NAG不是在当前点进行学习了,而是预测到下一点的梯度方向,然后结合当前点的梯度方向,得到我们应该进行更新的方向。

Adagrad

上边我们所说的梯度下降方法,每次学习用的都是一样的学习率,但是在训练过程中每个参数的重要性肯定是不同的,这个时候我们如果继续用同样的学习率进行更新的话,就会出现误差。这时候我们就需要使用不同的学习率动态地更新参数。接下来我们看一下Adagrad算法,其数学原理如下:
在这里插入图片描述
在这里插入图片描述
其中,r是储存梯度平方和的变量,δ是为了避免r=0时分母为零的情况(一般取值1e-7),分子为全局的学习率。从上述式子中可以看出,随着学习的过程,学习率是一直在动态的变化,对于梯度较大的参数,学习率较小,反之亦然。除此之外还是随着r的不断增大而减小。这也就造成了Adagrad的一个缺点,就是随着学习的深入,激励收敛变为惩罚收敛,最终学习率会变得非常小,收敛的很慢,不利于训练。

Reference

[1] https://study.163.com/my#/smarts
[2]: https://blog.csdn.net/program_developer/article/details/80756008
[3]: https://blog.csdn.net/tsyccnh/article/details/76673073
[4]: https://blog.csdn.net/Solo95/article/details/84837711

### 深度学习中的梯度下降算法 #### 一、梯度下降算法的原理 梯度下降是一种常用的优化算法,主要用于寻找目标函数(通常是损失函数)的极小值。其核心思想是沿着负梯度方向更新参数,逐步逼近最优解。对于给定的目标函数 \( f(\theta) \),其中 \( \theta \) 表示模型参数向梯度下降的核心公式如下: \[ \theta := \theta - \alpha \nabla_\theta f(\theta) \] 这里,\( \alpha \) 是学习率,控制每次迭代步长大小;\( \nabla_\theta f(\theta) \) 是目标函数关于参数 \( \theta \) 的梯度[^2]。 在实际应用中,梯度下降存在多种变体,主要包括批量梯度下降 (Batch Gradient Descent, BGD)随机梯度下降 (Stochastic Gradient Descent, SGD)BGD 使用整个训练集计算梯度并更新参数,而 SGD 则针对单一样本进行梯度估计和参数更新。此外还有一种折衷方案——小批量梯度下降 (Mini-batch Gradient Descent),它结合了两者的优点。 #### 二、实现方式 以下是基于 Python 的简单梯度下降实现代码示例: ```python import numpy as np def gradient_descent(X, y, theta_init, learning_rate=0.01, iterations=100): m = len(y) theta = theta_init for _ in range(iterations): predictions = X.dot(theta) errors = predictions - y gradients = X.T.dot(errors) / m theta -= learning_rate * gradients return theta # 示例数据 X = np.array([[1, 2], [1, 3], [1, 4]]) y = np.array([2, 3, 4]) theta_initial = np.zeros(2) final_theta = gradient_descent(X, y, theta_initial, learning_rate=0.01, iterations=1000) print(final_theta) ``` 这段代码展示了如何利用梯度下降法拟合一条直线 \( y = ax + b \),其中 `X` 是输入特征矩阵,`y` 是标签向,`theta` 是待估参数向。 #### 三、常见优化方法及其特点 尽管标准梯度下降能够有效工作,但在许多情况下仍需对其进行改进以提高收敛速度或鲁棒性。以下是一些常见的优化策略: - **Momentum**: 动法引入了一个累积历史梯度的方向因子,帮助加速收敛过程并缓解局部震荡现象。具体而言,动项通过指数加权平均的方式累加过去若干次梯度信息[^1]。 - **Nesterov Accelerated Gradient (NAG)**: NAG 可视为 Momentum 的升级版,区别在于先依据当前动预测下一步的位置再计算该处的真实梯度,从而更精准地调整前进路线。 - **Adagrad**: 自适应调节每维变的学习率,使得稀疏特征获得较大更新幅度的同时防止频繁变动维度过度修正。然而 Adagrad 存在一个缺陷:随着训练推进,累计平方梯度不断增大导致后期几乎停止更新。 - **Adadelta & RMSprop**: 这两者均旨在克服 Adagrad 中学习率衰减过快的问题。特别是 RMSprop 提出了滑动窗口机制仅保留最近几次梯度平方值作为分母部分,进而维持稳定有效的学习速率变化趋势[^3]。 - **Adam**: 综合了 Momentum 和 RMSprop 的优势,不仅具备前者平滑噪声的能力也继承后者动态调控各坐标轴独立缩放比例的功能,成为目前最广泛使用的自适应优化器之一。 #### 四、应用场景与挑战 梯度下降及相关优化技术被广泛应用到各类监督学习任务之中,比如神经网络权重初始化以及后续微调阶段都离不开这些工具的支持。不过需要注意的是,在高维空间里可能存在鞍点而非严格意义上的全局最小值区域,这可能误导常规梯度导向型搜索陷入停滞状态。另外当面对非凸目标表面时也可能遭遇多重局部极值陷阱等问题亟待进一步研究探索解决方案。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值