梯度消失和梯度爆炸_网络权重初始化方法总结(上):梯度消失、梯度爆炸与不良的初始化...

本文探讨了神经网络训练中梯度消失和梯度爆炸的现象,分析了激活函数(如Sigmoid、Tanh和ReLU)以及权重初始化如何影响这些问题。通过实例解释了不良初始化(如全0、全常数)对网络性能的消极影响,并指出选择合适的权重初始化方法对控制反向传播中梯度的重要性。
摘要由CSDN通过智能技术生成

前向传播与反向传播回顾


神经网络的训练过程可以简化成以下步骤,

  1. 输入预处理(feature scaling等)

  2. 初始化网络weight和bias

  3. 前向传播,得到网络输出

  4. 计算损失函数,得到当前损失

  5. 反向传播,根据链式法则,逐层回传得到损失函数对当前参数的偏导,根据梯度下降算法对当前参数进行更新

  6. 重复步骤3 4 5,直到损失不再减小,即收敛

一个简单的前向传播和反向传播的示意图如下,线性组合和非线性激活交替进行,线性组合层可以为全连接层或卷积层等,图片来自链接,

9e8e5149ff7eb57ce30ebc61032ef45a.png

d3ba36ab87e79d3d879afba916bc6897.png

梯度下降算法的参数更新公式为,

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值