Pytorch系列之——损失函数、优化器

权值初始化

前面我们介绍了如何搭建网络模型,在模型搭建好之后一个非常重要的步骤就是对模型当中的权值进行初始化。正确的权值初始化可以加快模型的收敛,而不恰当的权值初始化可能会引发梯度的消失或爆炸,最终导致模型无法训练。

  • 梯度消失与爆炸
  • Xavier方法与Kaiming方法
  • 常用初始化方法
梯度消失与爆炸

在这里插入图片描述
首先观察模型是怎么对W2进行求导的,我们有:
H 2 = H 1 ∗ W 2 H_{2} = H_{1} * W_{2} H2=H1W2
Δ W 2 = ∂ L o s s ∂ o u t ∗ ∂ o u t ∂ H 2 ∗ ∂ H 2 ∂ w 2 = ∂ L o s s ∂ o u t ∗ ∂ o u t ∂ H 2 ∗ H 1 \Delta W_{2} = \frac {\partial Loss}{\partial out} * \frac {\partial out}{\partial H_{2}} * \frac {\partial H_{2}}{\partial w_{2}} \\ = \frac {\partial Loss}{\partial out} * \frac {\partial out}{\partial H_{2}} * H_{1} ΔW2=outLossH2outw2H2=outLossH2outH1

H1是上一层神经元的输出值,我们会发现W2的梯度会依赖于上一层的输出,如果H1的输出非常小比如趋向于0的话,那么W2的梯度也就会趋向于0,从而导致了梯度消失;如果H1趋向于无穷大,那么W2的梯度也就会趋向于无穷大,从而导致了梯度爆炸。一旦发生梯度消失或者梯度爆炸,那么就会导致模型无法正常训练。所以若要控制模型的梯度消失或梯度爆炸,就要严格控制网络输出层的输出值的一个尺度范围,也就是不能让每一层网络层的输出值太大或者太小。

接下来我们通过方差的公式推导来观察为什么网络层输出的标准差会越来越大?最终会超出我们可表示的范围?在进行方差公式推导之前,我们先来复习三个基本的公式:

  • E ( X ∗ Y ) = E ( X ) ∗ E ( Y ) E(X * Y) = E(X) * E(Y)
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Despacito1006

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值