2021李宏毅机器学习笔记--4 五种gradient descent梯度下降算法简介

本文详述了五种梯度下降算法,包括SGD、SGD with Momentum、Adagrad、RMSprop和Adam。这些算法旨在改进优化过程,减少震荡,避免局部最小值,提高神经网络训练效率。
摘要由CSDN通过智能技术生成

2021李宏毅机器学习笔记--4 五种gradient descent梯度下降算法简介

1 摘要

本文主要介绍了多种梯度下降算法,梯度算法主要是用于帮助找到最好的函式,也就是loss损失最小的函式,以便于我们训练出最好的模型,不同的梯度下降算法有其自己的特点,本文主要介绍五种梯度下降算法。

2 五种梯度下降算法

2.1 SGD

SGD是stochastic gradient descent随机梯度下降的缩写,它的思想是这样的:
1 首先选定一个随机的初始点,
2 然后计算该点的梯度,根据梯度的反方向确定下一步的移动,
3 然后计算下一步的梯度,一直移动,直到移动到某个点的梯度为0时停止移动。
但是这样的话,容易陷入局部最小,找不出最优解。
在这里插入图片描述

2.2 SGD with momentum

动量梯度下降算法,在随机梯度下降算法的基础上引入了一阶动量。他的思想是这样的:
1 选定初始点和初始向量movement v0,
2 计算初始点的梯度进行移动,但是移动的方向和大小与梯度和上一步的向量都有关系,根据公式计算出下一步的移动。
3 计算出下一步的梯度以及向量值,重复上述步骤。

这样的话,每一步的移动都与之前的向量有一个累加的效果的影响,这就导致了移动是一个渐变的过程,是动量的过程,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值