1.11 神经网络的权重初始化-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授


←上一篇↓↑下一篇→
1.10 梯度消失与梯度爆炸回到目录1.12 梯度的数值逼近

神经网络的权重初始化 (Weight Initialization for Deep Networks)

上节课,我们学习了深度神经网络如何产生梯度消失和梯度爆炸问题,最终针对该问题,我们想出了一个不完整的解决方案,虽然不能彻底解决问题,却很有用,有助于我们为神经网络更谨慎地选择随机初始化参数,为了更好地理解它,我们先举一个神经单元初始化地例子,然后再演变到整个深度网络。

在这里插入图片描述

我们来看看只有一个神经元的情况,然后才是深度网络。

单个神经元可能有4个输入特征,从 x 1 x_1 x1 x 4 x_4 x4 ,经过 a = g ( z ) a=g(z) a=g(z) 处理,最终得到 y ^ \hat{y} y^ ,稍后讲深度网络时,这些输入表示为 a [ l ] a^{[l]} a[l] ,暂时我们用 x x x 表示。

z = w 1 x 1 + w 2 x 2 + ⋯ + w n x n z=w_1x_1+w_2x_2+\cdots+w_nx_n z=w1x1+w2x2++wnxn b = 0 b=0 b=0 ,暂时忽略 b b b ,为了预防 z z z 值过大或过小,你可以看到 n n n 越大,你希望 w i w_i wi 越小,因为 z z z w i x i w_ix_i wixi 的和,如果你把很多此类项相加,希望每项值更小,最合理的方法就是设置 w i = 1 n w_i=\frac1n wi=n1 n n n 表示神经元的输入特征数量,实际上,你要做的就是设置某层权重矩阵 w [ l ] = n p . r a n d o m . r a n d ( s h a p e ) ∗ n p . s q r t ( 1 n [ l − 1 ] ) w^{[l]}=np.random.rand(shape)*np.sqrt(\frac1{n^{[l-1]}}) w[l]=np.random.rand(shape)np.sqrt(n[l1]1) n [ l − 1 ] n^{[l-1]} n[l1] 就是我喂给第 l l l 层神经单元的数量(即第 l − 1 l-1 l1 层神经元数量)。

在这里插入图片描述

结果,如果你是用的是Relu激活函数,而不是 1 n \frac1n n1 ,方差设置为 2 n \frac2n n2 ,效果会更好。你常常发现,初始化时,尤其是使用Relu激活函数时, g [ l ] ( z ) = R e l u ( z ) g^{[l]}(z)=Relu(z) g[l](z)=Relu(z) ,它取决于你对随机变量的熟悉程度,这是高斯随机变量,然后乘以它的平方根,也就是引用这个方差 2 n \frac2n n2 。这里,我用的是 n [ l − 1 ] n^{[l-1]} n[l1] ,因为本例中,逻辑回归的特征是不变的。但一般情况下 l l l 层上的每个神经元都有 n [ l − 1 ] n^{[l-1]} n[l1] 个输入。如果激活函数的输入特征被零均值和标准方差化,方差是1, z z z 也会调整到相似范围,这就没解决问题(梯度消失和爆炸问题)。但它确实降低了梯度消失和爆炸问题,因为它给权重矩阵 w w w 设置了合理值,你也知道,它不能比1大很多,也不能比1小很多,所以梯度没有爆炸或消失过快。

在这里插入图片描述

我提到了其它变体函数,刚刚提到的函数是Relu激活函数,一篇由Herd等人撰写的论文曾介绍过。对于几个其它变体函数,如tanh激活函数,有篇论文提到,常量1比常量2的效率更高,对于tanh函数来说,它是 1 n [ l − 1 ] \sqrt{\frac1{n^{[l-1]}}} n[l1]1 ,这里平方根的作用与这个公式作用相同( n p . s q r t ( 1 n [ l − 1 ] ) np.sqrt(\frac1{n^{[l-1]}}) np.sqrt(n[l1]1) ),它适用于tanh激活函数,被称为Xavier初始化。Yoshua Bengio和他的同事还提出另一种方法,你可能在一些论文中看到过,它们使用的是公式 2 n [ l − 1 ] + n [ l ] \sqrt{\frac2{n^{[l-1]}+n^{[l]}}} n[l1]+n[l]2 。其它理论已对此证明,但如果你想用Relu激活函数,也就是最常用的激活函数,我会用这个公式 n p . s q r t ( 2 n [ l − 1 ] ) np.sqrt(\frac2{n^{[l-1]}}) np.sqrt(n[l1]2) ,如果使用tanh函数,可以用公式 1 n [ l − 1 ] \sqrt{\frac1{n^{[l-1]}}} n[l1]1 ,有些作者也会使用这个函数。

实际上,我认为所有这些公式只是给你一个起点,它们给出初始化权重矩阵的方差的默认值,如果你想添加方差,方差参数则是另一个你需要调整的超级参数,可以给公式 n p . s q r t ( 2 n [ l − 1 ] ) np.sqrt(\frac2{n^{[l-1]}}) np.sqrt(n[l1]2) 添加一个乘数参数,调优作为超级参数激增一份子的乘子参数。有时调优该超级参数效果一般,这并不是我想调优的首要超级参数,但我发现调优过程中产生的问题,虽然调优该参数能起到一定作用,但考虑到相比调优,其它超级参数的重要性,我通常把它的优先级放得比较低。

希望你现在对梯度消失或爆炸问题以及如何为权重初始化合理值已经有了一个直观认识,希望你设置的权重矩阵既不会增长过快,也不会太快下降到0,从而训练出一个权重或梯度不会增长或消失过快的深度网络。我们在训练深度网络时,这也是一个加快训练速度的技巧。

课程PPT

在这里插入图片描述
在这里插入图片描述


←上一篇↓↑下一篇→
1.10 梯度消失与梯度爆炸回到目录1.12 梯度的数值逼近

  • 8
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Zhao-Jichao

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值