神经网络训练方法(pytorch)

神经网络训练方法

以下内容是根据torch官网和莫烦python学习所得

SGD随机梯度下降

假设样本数量为 N N N,关于梯度下降,最重要的就是损失函数最小化,其中权 W W W的更新方式为
W = W − λ ∗ 1 M ∑ i = 1 M ∂ L ( x i ) ∂ W (1) W = W - \lambda * \frac{1}{M}\sum_{i=1}^M\frac{\partial{L(x_i)}}{\partial{W}} \tag{1} W=WλM1i=1MWL(xi)(1)
按照 M M M的不同,可分为三种情况:

  • batch梯度下降(batch gradient descent, BGD)

    M = N M = N M=N,即所有样本都参与权的更新,计算量最大,下降趋势比较平滑

  • mini-batch梯度下降

    1 < M < N 1<M<N 1<M<N,随机选择 M M M个样本作为代表,快速下降后波动

  • 随机梯度下降(stochastic gradient descent, SGD)

    N = 1 N = 1 N=1,每次随机选择1个作为代表参与计算,快速下降后趋于平稳

下面几个看网址吧 https://blog.csdn.net/u014595019/article/details/52989301?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task

Momentum 更新

AdaGrand更新

RMSProp更新

Adam更新

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值