NNDL 作业12:第七章课后题

在这里插入图片描述

7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比.

在这里插入图片描述
主要是为了降低批量过小带来的不稳定性风险,防止它更新时前往偏离方向太远,因为当批量越大时,梯度方向更具有代表性,随机梯度下降偏离正常方向的概率要更低,因此可以调整更大的学习率,批量越小时正相反,选取的梯度方向更容易偏离目标方向,因此选用较小的学习率来限制其更新步骤。

7-2在Adam算法中,说明指数加权平均的偏差修正的合理性(即公式(7.27)和公式(7.28)).

公式7.27:
M t ^ = M t 1 − β 1 t \hat{M_t} = \frac{M_t}{1-\beta_1^t} Mt^=1β1tMt

公式7.28:
G t ^ = G t 1 − β 2 t \hat{G_t}= \frac{G_t}{1-\beta_2^t} Gt^=1β2tGt
这两个是偏差修正公式,它是为了调整初始的v、m值而设计的,因为一开始由于v、m的值都来自于他们对应的指数移动平均,但是起步时的值很小(见下图),因此要通过偏差修正将其值放大,从而为初始的若干个步骤提供较大的‘动量’。在实际意义上,偏差修正就是指数移动平均的一次优化,优化位置在出发位置附近,并且随着步骤的增多而逐渐减弱其修正的影响。
在这里插入图片描述

7-9证明在标准的随机梯度下降中,权重衰减正则化和l2正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立.

以λ为衰减因子,给出了权值衰减方程。
权重衰减(正则化):
在这里插入图片描述
L2正则化:
在这里插入图片描述
Δ C \Delta C ΔC并据此计算SGD更新过程
Δ C = Δ C 0 + λ w w = w − α Δ C w = w − α ( Δ C 0 + λ w ) w = w − α Δ C 0 − α λ w w = ( 1 − α λ ) w − α Δ C 0 ( 1 ) \Delta C=\Delta C_0+\lambda w \\ w=w-\alpha\Delta C\\ w=w-\alpha(\Delta C_0+\lambda w)\\ w=w-\alpha\Delta C_0-\alpha\lambda w\\ w=(1-\alpha \lambda)w-\alpha\Delta C_0 (1) ΔC=ΔC0+λww=wαΔCw=wα(ΔC0+λw)w=wαΔC0αλww=(1αλ)wαΔC01
对比权重衰减,

w = ( 1 − λ ) w − α Δ C 0 ( 2 ) w=(1- \lambda)w-\alpha\Delta C_0 (2) w=(1λ)wαΔC02
发现它比权重衰减在w前面多乘了一个 α \alpha α,其计算方法实际上效果和SGD的权重衰减效果是一致的。
但是这在动量法和Adam中是不一致的,因为这两个算法还利用到了移动平均的思想,利用到了前几个状态的梯度方向,总体上要复杂很多,因此并不是简单的SGD算法,自然也就不能适合L2正则化了。

总结:分析了几个算法细节上的问题,对这几个算法的李姐进一步加深了,同时建立起了一些知识体系,找到了一些知识方面的联系。

思维导图:
在这里插入图片描述

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值