八、改进神经网络的学习方法(4):权重初始化

这篇博客探讨了原始权重初始化在深度学习中的缺点,导致梯度消失问题,影响学习速度。通过调整权重初始化为均值为0,标准差为输入神经元数量的平方根的高斯分布,可以改善这一状况。实验结果显示,改进后的初始化方法在MNIST数字分类任务中显著提高了训练速度和分类准确率。
摘要由CSDN通过智能技术生成

本博客主要内容为图书《神经网络与深度学习》和National Taiwan University (NTU)林轩田老师的《Machine Learning》的学习笔记,因此在全文中对它们多次引用。初出茅庐,学艺不精,有不足之处还望大家不吝赐教。

1. 原始权重初始化的缺点

  之前根据独立高斯随机变量来选择权重和偏置,其被归一化为均值为0,标准差1。但是这样的初始化方法会带来梯度学习算法变慢的缺点,下面举例说明。
  假设我们使用一个有大量输入神经元的网络,比如说1000个输入神经元,并且已经使用归一化的高斯分布初始化了连接第一个隐藏层的权重。现在我将注意力集中在这一层的连接权重上,忽略网络其他部分。为了简化,假设我们使用训练输入 x x x,其中一半的输入神经元值为0,另一半为1,虽然这种情况很特殊,但是结论是具有普遍适应性的。让我们考虑这一隐藏层的神经元权值输入 z = ∑ j w j x j + b z=\sum_jw_jx_j+b z=jwjxj+b。其中500个项消去了,因为对应的输入为0。所以 z z z 是遍历总共501个归 一化的高斯随机变量的和,包含500个权重项和额外的1个偏置项。因为独立随机变量和的方差是每个独立随机变量方差的和,因此 z z z 本身是一个均值为0标准差为 501 ≈ 22.4 \sqrt{501}\approx22.4 501

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值