深度学习之参数初始化—Xavier初始化

个人微信公众号:AI研习图书馆,欢迎关注~

深度学习知识及资源分享,学习交流,共同进步~

1.引言

本文介绍一下深度学习参数初始化问题中耳熟能详的参数初始化方法——Xavier初始化。

文章:Understanding the difficulty of training deep feedforward neural networks

下载地址:https://machinelearning.wustl.edu/mlpapers/paper_files/AISTATS2010_GlorotB10.pdf

“Xavier”初始化方法是一种很有效的神经网络初始化方法,方法来源于2010年的一篇论文《Understanding the difficulty of training deep feedforward neural networks》。

通常,一般的深度学习文章上来就是实验,告诉读者这个实验结果好,然后由实验结果再反向给出一些无从验证的可能对可能不对的原因。而这篇文章虽然整体来看比较简单,但结构非常严谨:首先通过实验分析标准初始化方法的问题;然后根据两个目标——状态方差和梯度方差保持不变推导出参数的特点,给出Xavier初始化方法的具体形式;最后通过实验验证Xavier初始化的效果确实不错。

在开始阅读下面的内容之前,我们需要牢记参数初始化的目的是为了让神经网络在训练过程中学习到有用的信息,这意味着参数梯度不应该为0。而我们知道在全连接的神经网络中,参数梯度和反向传播得到的状态梯度以及入激活值有关——激活值饱和会导致该层状态梯度信息为0,然后导致下面所有层的参数梯度为0;入激活值为0会导致对应参数梯度为0。所以如果要保证参数梯度不等于0,那么参数初始化应该使得各层激活值不会出现饱和现象且激活值不为0。我们把这两个条件总结为参数初始化条件:

  1. 初始化必要条件一:各层激活值不会出现饱和现象。
  2. 初始化必要条件二:各层激活值不为0。

需要说明的是这篇论文只研究了解决分类问题的5层的全连接神经网络,每个隐层的神经元个数为1000,并且仅探讨了三种激活函数:sigmoid、tanh、softsign。

2.标准初始化方法

形式

把权重矩阵初始化为如下形式:
在这里插入图片描述
其中U[−a,a]是区间(−a,a)上的均匀分布,n是入神经网络的大小。易知

在这里插入图片描述
在深入介绍标准初始化之前,首先给出随机变量方差的两个性质:

  • 假设随机变量X和随机变量Y相互独立,则有
    在这里插入图片描述
  • 假设随机变量X和随机变量Y相互独立,且E(X)=E(Y)=0,则有
    在这里插入图片描述
    神经网络的隐层状态计算表达式:
    在这里插入图片描述
    其中
    在这里插入图片描述

激活值计算表达式:
在这里插入图片描述
论文中的符号和我的有些区别:论文中用zz表示激活值,ss表示状态值。我这里按自己的习惯来写。

现在把输入xx的每一维度xx看做一个随机变量,并且假设E(x)=0E(x)=0,Var(x)=1Var(x)=1。假设WW和xx相互独立,则隐层状态的方差为

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI研习图书馆

您的鼓励将是我创作的最大动力~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值