2020-5-10 吴恩达-NN&DL-w3 浅层NN(3.11 随机初始化-否则完全对称,多个隐藏单元没有意义)

权重随机初始化在神经网络(NN)训练中必不可少,尤其是避免完全对称导致的隐藏单元失去意义。初始化为0会导致梯度下降无效,因为各层节点计算相同函数。解决方案是使用小规模的随机数初始化权重,防止激活函数饱和导致梯度下降缓慢。对于不同类型的NN,合适的初始化常数可能不同,但通常选择较小值。
摘要由CSDN通过智能技术生成

1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c
2.详细笔记网站(中文):http://www.ai-start.com/dl2017/
3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai

3.11 随机初始化 Random Initialization

训练NN时,权重随机初始化是很重要的。
逻辑回归,权重初始化为0是可以的。但是如果把NN的各个参数数组全部初始化为0,那么梯度下降算法会无效。

为什么会这样呢?

在这里插入图片描述
观察上面的网络。

  • 有2个输入特征,n[0]=2
  • 有2个隐藏单元,n[1]=2

所以隐藏层参数矩阵 W[1]维度是2 x 2。初始化为0,那么 W [ 1 ] = [ 0 0 0 0 ] W^{[1]}=\begin{bmatrix} 0 & 0 \\ 0 & 0 \\ \end{bmatrix} W[1]=[00

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值