为什么要权值初始化

56 篇文章 3 订阅 ¥39.90 ¥99.00
权值初始化在神经网络中至关重要,因为它影响梯度传播和网络收敛。过大或过小的初始权值可能导致梯度爆炸或消失。Xavier初始化和Kaiming初始化分别针对不同激活函数设计,确保输入输出的方差一致。PyTorch提供了多种初始化方法,如均匀分布、正态分布和常数分布。初始化所有参数为0会令网络学习相同特征,因此需要合理选择初始化策略。
摘要由CSDN通过智能技术生成

为什么要初始化权值

神经网络其实都是一些矩阵乘法。如果权值的初始值过大,则会导致梯度爆炸,使得网络不收敛;过小的权值初始值,则会导致梯度消失,会导致网络收敛缓慢或者收敛到局部极小值

 上面可以看到, 只是经过28次迭代,模型的输出变得就变得非常大,以至于计算机都无法识别它们的标准差和平均值。显然是权值初始化太大。

 权值初始化过小,导致输出为0

可以看到模型的参数a经过缩放后,模型的输出的标准差也缩小。 模型输出的标准差与模型的参数相关。

上面的都是一些简单的情况,并没有激活函数。深层神经网络可以创造非常复杂的函数,近似的描述现实世界的现象。

这种传统的初始化方法导致激活梯度变得无穷小——它们几乎消失了。

Xavier初始化

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一壶浊酒..

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值