深度学习:动量梯度下降法理论详解+代码实现

前置知识

1.1随机梯度下降与梯度下降

1.2梯度下降法与最小二乘法的差异

1.3为什么需要梯度下降法

1.4梯度方向为什么是函数下降最快的反方向

1.5 指数加权平均

假设有10个数, x i x_i xi :=0 1 2 3 4 5 6 7 8 9 ,想求这组数据的平均值,我们所知的方法一般是算是平均法: x ‾ = 0 + 1 + 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9 10 \overline{x}=\dfrac{0+1+2+3+4+5+6+7+8+9}{10} x=100+1+2+3+4+5+6+7+8+9
还有一种方法是指数加权平均法,定义一个超参数 β \beta β(大部分情况 β = 0.9 \beta=0.9 β=0.9):
x 0 = 0 x 1 = x 0 ⋅ β + x 1 ⋅ ( 1 − β ) x 2 = x 1 ⋅ β + x 2 ⋅ ( 1 − β ) ⋮ x 10 = x 9 ⋅ β + x 10 ( 1 − β ) \begin{aligned}x_{0}=0\\ x_{1}=x_{0}\cdot \beta +x_{1}\cdot \left( 1-\beta \right) \\ x_{2}=x_1\cdot \beta +x_{2}\cdot \left( 1-\beta \right) \\ \vdots \\ x_{10}=x_9\cdot \beta +x_{10}\left( 1-\beta \right) \end{aligned} x0=0x1=x0β+x1(1β)x2=x1β+x2(1β)x10=x9β+x10(1β)
这种方法是好处是可以节约空间,算数平均法需要保留所有值才可以求平均,而指数加权平均只需要保留当前的平均值与当前时刻的值即可,在深度学习含量数据的背景下,可以节约内存并加速运算。

理论讲解

在这里插入图片描述

我们在使用随机梯度下降法(SGD)时,由于噪声与步长不能精准把控的情况存在,下降的过程实在震荡中实现的,如上图。我们想优化SGD考虑从下降路径上做文章。我们知道梯度是向量,导数与偏导数是标量,而每一次下降的方向都是沿着梯度方向进行的,于是我们把下降的方向分解成水平方向与竖直方向,如下图:
在这里插入图片描述
现在,我们就又了优化的方向了,如果把竖直方向削弱,水平方向增强,我们的优化速度会事半功倍。如下图:
在这里插入图片描述
SGD的原本的公式是:
w 2 = w 1 − α ∂ l o s s ∂ w 1 b 2 = b 1 − α ∂ l o s s ∂ w 1 \begin{aligned}w_{2}=w_{1}-\alpha \dfrac{\partial loss}{\partial w_{1}}\\ b_{2}=b_1-\alpha \dfrac{\partial loss}{\partial w_{1}}\end{aligned} w2=w1αw1lossb2=b1αw1loss
其中偏导数代表了这个维度上移动的方向,学习率代表步长,我们把偏导数在每次优化参数时替换成加权平均的偏导数,这样考虑可以考虑前面的方向,因为当前方向前面的竖直方向是相反的,水平方向是相同的,于是就可以让函数值下降的震荡减小,速度加快。公式如下:
∂ l o s s ∂ W 2 = ∂ l o s s ∂ W 1 . β + ∂ L o s s ∂ W 2 ( 1 − β ) \dfrac{\partial loss}{\partial W_{2}}=\dfrac{\partial loss}{\partial W_{1}}.\beta +\dfrac{\partial Loss}{\partial W2}\left( 1-\beta \right) W2loss=W1loss.β+W2Loss(1β)

代码实现

import torch
from torch import optim
optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum=0.9)
  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

HanZee

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值