神经网络中各种参数优化方法学习笔记

W:要训练的参数   J(W):代价函数    ∇WJ(W):代价函数的梯度     η:学习率

1.SGD(常用)

W = W−η⋅∇WJ(W;x(i);y(i))

2.Momentum:

γ:动力,通常设置为0.9  

vt = γvt − 1 + η∇WJ(W)    

W = W−vt

当前权值的改变会受到上一次权值改变的影响,类似于小球向下滚动的时候带上了惯性。

这样 可以加快小球的向下的速度。

3.NAG(Nesterov accelerated gradient):

vt = γvt − 1 + η∇WJ(W−γvt − 1)

W = W−vt

NAG在TF中跟Momentum合并在同一个函数tf.train.MomentumOptimizer中,可以通过参 数配置启用。 在Momentun中小球会盲目地跟从下坡的梯度,容易发生错误,所以我们需要一个更聪明的 小球,这个小球提前知道它要去哪里,它还要知道走到坡底的时候速度慢下来而不是又冲上另 一个坡。γvt−1会用来修改W的值,计算W−γvt−1可以表示小球下一个位置大概在哪里。从 而我们可以提前计算下一个位置的梯度,然后使用到当前位置。

4.Adagrad

i:代表第i个分类  t:代表出现次数  ϵ:的作用是避免分母为0,取值一般为1e-8   η:取值一般为0.01

gt,i = ∇WJ(Wi)

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值