吴恩达神经网络和深度学习-学习笔记-3-参数随机初始化

随机初始化参数的重要性

参数的随机初始化很重要,而不是直接初始化为0

对于logistic回归,可以将权重初始化为0。
但如果将神经网络的各参数全部初始化为0,再使用梯度下降算法,那会完全无效(把偏置b初始化为0是可行的(当然也可以随机初始化),但是将权重w初始化为0就会出问题
出问题的原因是因为,当权重初始化为0时,不同的计算会得到相同的结果,吴老师将其称为需要破坏的对称性问题
在这里插入图片描述
至于为什么我们把w在随机生成后还要乘一个0.01
这是因为我们通常会把w的初始值设定为很小很小的非零随机数
因为如果用到tanh和sigmoid激活函数,当权重过大时,计算激活函数的时候会使得z过大或过小(z^ [1]= w^ [1]+b^ [1]、a^ [1]= g^ [1](z^ [1 ]) )。在这种情况下,你最后可能落在tanh函数或sigmoid函数的平缓部分(接近饱和),梯度的斜率非常小,也就意味着梯度下降会非常慢,学习过程也会非常慢。
在这里插入图片描述

另外,当要训练一个深度网络的时候,要选用0.01之外的常数。

但不管怎样,初始化的参数一般都很小

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值