neuralnetworksanddeeplearning学习_权重初始化方法

在第一章中作者使用的权重初始化方法是将权重以标准正态分布N~(0,1)进行初始化,本章作者介绍使网络更加高效的权重初始化方式。


作者假设网络有1000个输入,其中500个值为0,500个值为1,第一隐藏层的节点未激活输出为,那么其输出实际上就是501个独立正态分布变量之和,其中包括500个w和1个bias。独立的正态分布变量之和仍然是正态分布,则未激活输出仍然满足正态分布N~(0,501),即其方差为501,概率密度峰值为1/sqrt(1002*pi)=0.01782,其概率密度函数图像如下:

由此图可以看出 z 大概率是一个比较大的值,用作者的原话是:。可以看出这样第一隐藏层的节点的激活后输出大多会极其接近0或1。结点饱和会使得对权重做出微小的改变对整体产生的影响有限,造成学习速度缓慢。


由以上的讨论可以看出只要我们能够使得 z 的概率密度函数图像是一个峰值高的正态分布,例如标准正态分布N~(0,1),那么就可以避免隐藏层结点的饱和。具体的做法就是将具有m个输入的结点的权重按照正态分布N~(0,1/m)来进行初始化,这样求和后的正态分布仍然可以有一个足够陡峭的概率密度函数。例如下图:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值