caffe六种优化方法

caffe六种优化方法

1 简介

所谓的优化方法是指对于训练网络的loss进行优化。caffe中在Solver配置,在神经网络中,用forward pass来求解loss,用backward pass来求解梯度。六种优化方法分别为。

  • Stochastic Gradient Descent (type: “SGD”),
  • AdaDelta (type: “AdaDelta”)
  • Adaptive Gradient (type: “AdaGrad”)
  • Adam (type: “Adam”)
  • Nesterov’s Accelerated Gradient (type: “Nesterov”)
  • RMSprop (type: “RMSProp”)

2 优化方法

2.1 随机梯度下降(SGD)

随机梯度下降法主要为了解决梯度计算,由于随机梯度下降法的引入,童话从哪个将梯度下降法分为三种类型:

  • 批梯度下降法(GD)

    原始的梯度下降法

  • 随机梯度下降法(SGD)

    每次梯度计算只使用一个样本

    避免在类似样本上计算梯度造成的冗余计算

    增加了跳出当前的局部最小值的潜力

    在逐渐缩小学习率的情况下,有与批梯度下降法类似的收敛速度

  • 小批量随机梯度下降法(Mini Batch SGD)

    每次梯度计算使用一个小批量样本

    梯度计算比单样本更加稳定

    可以很好的利用现成的高度优化的矩阵运算工具

通常神经网络训练中把Mini Baatch SGD 称为SGD。

未完待续

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值