【Caffe笔记】四.Slover

1.Solver简介

    Solver通过协调Net的前向推断计算和反向梯度计算来对参数进行更新,从而达到减小loss的目的。Caffe模型的学习被分为了两部分:Solver进行更新优化参数,Net进行计算loss和gradient。

    Caffe所支持的solvers如下:

        Stochastic Gradient Descent(type: "SGD")

        AdaDelta(type: "AdaDelta")

        Adaptive Gradient(type: "AdaGrad")

        Adam(type: "Adam")

        Nesterov's Accelerated Gradient(type: "Nesterov")

        RMSProp(type: "RMSProp")


    Solver:

        1.用于优化过程的记录,创建训练网络(用于学习),测试网络(用于评估)。

        2.通过forward和backward过程来迭代优化和更新参数。

        3.周期性地测试网络评估性能

        4.在优化过程中记录模型和solver的snapshot(快照)。

    

    每一次迭代中:

        1.调用Net的前向过程计算出输出和loss。

        2.调用Net的后向过程计算出梯度。

        3.根据下述的Solver方法,利用梯度更新参数。

        4.根据学习率(lr),历史数据和求解方法更新solver状态,是参数从初始化状态逐渐更新到最终的学习到的状态。solver运行模式有CPU/GPU两种模式。


2.Methods

    solver方法用于最小化loss。在每一次迭代中,采用数据集的一个随机子集(mini-batch)来近似代替,其数据量远远小于整个数据集。

    关于methods的介绍,推荐以下的这篇文章,介绍得很全面。

    https://zhuanlan.zhihu.com/p/22252270

        

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值