【机器学习】优化器之梯度下降算法

本文探讨了在机器学习和深度学习中,如何利用梯度下降及其变种(批量、随机、小批量梯度下降)来优化损失函数。梯度是函数在某点的最大方向导数,用于确定参数更新方向。链式法则用于求偏导,而动量优化算法通过积累历史动量,帮助模型跳出局部最优和鞍点。此外,还介绍了鞍点的概念,即一阶导数为零但二阶导数正负不一的点,可能导致优化过程受阻。
摘要由CSDN通过智能技术生成

不管在机器学习还是深度学习中,我们都是通过对loss函数求偏导,来更新要学习的参数。一般用的比较多的就是梯度下降算法,当然了梯度下降算法有几个变种,刚好面试问到这个问题了,因此在此做个记录。

1、什么是梯度?

梯度的本意是一个向量,表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。

1)梯度是一个向量,即有方向有大小;
     2)梯度的方向是最大方向导数的方向;(函数沿梯度方向函数有最大的变化率。)
     3)梯度的值是最大方向导数的值。

所以在优化过程中为了让我们的loss降低的话,必须去沿着负梯度方向进行优化、减小函数的值。

所以在一般的更新过程中,我们将梯度下降算法写成如下:

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值