Adam优化器算法

 

上图就是Adam算法在深度学习中更新参数时应用的详细过程,下面对一些参数进行一下说明:

1、t:更新的步数(steps)

2、\epsilon:学习率,用于控制参数更新的步幅(stepsize)

3、\Theta:要求解更新的参数

4、y^{i}:带有参数\Theta的目标函数,通常指损失函数

5、g:目标函数对\Theta求导的梯度

6、\beta ^{_{1}}:一阶矩衰减系数

7、\beta2:二阶矩衰减系数

8、s:梯度g的一阶矩,即梯度g的期望

9、r:梯度g的二阶矩,即梯度g^{2}的期望

10、s三角:s的偏置矫正,考虑到s在零初始值情况下向零偏置

11、r三角:r的偏置矫正,考虑到r在零初始值情况下向零偏置

上图中while循环实现了整个Adam算法在梯度下降中的优化过程

1、计算目标函数对\Theta的梯度

2、更新steps

3、计算梯度的一阶矩s,即过往梯度与当前梯度的平均,如上图s即是steps=t时的梯度一阶矩

4、计算梯度的二阶矩r,即过往梯度与当前梯度平方的平均,如上图r即是steps=t时的梯度二阶矩

5、修正梯度的一阶矩s,因为s的初始值为零,它容易向零偏置,这样处理后会减少这种偏置的影响,其公式中的\beta \tfrac{t}{1}是指beat1的t次方

6、修正梯度的二阶矩r,因为r的初始值为零,它容易向零偏置,这样处理后会减少这种偏置的影响。

7、更新参数\Theta,可以将\frac{\epsilon }{\sqrt{r}+\delta }看成更新参数\Theta的学习率,s三角:看成更新\Theta参数的梯度

 

 

 

 

  • 0
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值