卷积神经网络的调参技巧1

卷积神经网络的调参技巧1


方法:
一、更多的优化算法
二、激活函数
三、网络的初始化
四、批归一化
五、数据增强
六、采用更多的调参技巧

1 随机梯度下降
问题:
1.局部极值
2.鞍点saddle point问题
(动量梯度下降可以在一定程度上缓解以上的问题)
此外的问题是:
1.受到学习率的影响:导致梯度爆炸不收敛
2.每一个维度的学习率一样,阿尔发值是全局的,而不是个性化定义的,在稀疏上比较明显
解决方法:
AdaGrad算法:让梯度去做衰减
1.调整学习率::使梯度有个累积值,将以往的梯度进行平方和,并且作为学习率的分母,使得学习率随着训练次数的增加而越来越小

特点:
1.前期。分母regularize较小,效果:放大梯度
2.后期。分母较大,缩小梯度
3.梯度随着训练次数降低
4.每个分量有不同的学习率

缺点:
1.学习率过大,导致分母影响过于敏感
2.后期分母累积值太大,提前结束训练

解决
采用Adamgrad的变种:RMSprop
有累积平方梯度变为平方梯度
解决了后期提前结束的问题

在平常训练中,一般采用Adam
使用learning_rate 来做参数

Adam设置如下比较有效:
贝塔beta1=0.9
beta2=0.999
learing_rate = 1e-3 or 5e-4

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值