深度学习中的训练调参

本文探讨了深度学习中两种常用的优化器——Adam和SGD的使用。Adam以其自动调整学习率的优势适合初学者,而SGD通常在模型精度上更胜一筹。推荐的训练策略是先用Adam快速收敛,再用SGD提升模型精度。同时,文章提到了Momentum的作用,它通过引入前几次迭代的梯度来减少噪声并加速学习。
摘要由CSDN通过智能技术生成

     很久很久没有写过博客了。

     去年春夏接触到深度学习,直到现在,也有大半年了,但是关于训练调节参数一直没有很好的把握,刚好同组有调参大神,就向她请教了下:

本着一个大原则:学习率尽量调大,只要不发散就行

1、用什么:Adam和SGD

     Adam:比较傻瓜式,可以自动调节学习率(初始学习率也不能太大,只是施加一个惯性?)。不追求极致的和初学者能用它把模型训练到一个比较满意的效果。

     SGD:一般框架中默认的优化器,适合要求比较高的模型训练。普遍适用于各种数据集,一般给个较大的bash_lr训练一段时间后再降低进行训练。

     

     以下例子来自于caffe源代码中的mnist训练例子(只看最后一个cell就行):

     收敛速度: Adam > SGD

       eg. 网络包含一个全连接层,lr=0.001,lr_policy=‘inv’, niter=500 (左Adam右SGD)

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值