Deep learning I - III Shallow Neural Network - Random Initialization深度学习随机初始化的必要性

Random Initialization 随机初始化参数 W & b


Reference:Thanks for Deep Learning from Coursera, especially Andrew Ng’s team

这里写图片描述
这里写图片描述
1. 对于linear regression,将参数都初始化为0是可取的,随着梯度下降,参数不断更新至收敛
2. 对于Neural Network,将参数都初始化为0会造成相应layer上的Neuron完全对称相同,通过反向传播算法更新值时,同样会是完全对称相同
3. 所以,初始化NN参数时,使用随机初始化初始值,并使用较小的初始值,因为如tanh激励函数,在z值较少的时候导数较大,可以较快的更新下降

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值