【深度学习_2.1.1】神经网络参数初始化

本文介绍了深度学习中神经网络参数初始化的三种方法:零初始化、随机初始化和He初始化。零初始化可能导致对称性问题,随机初始化可能引发梯度消失或爆炸,而He初始化针对ReLU激活函数能有效改善这一情况。
摘要由CSDN通过智能技术生成

三种参数初始化方法:

zero initialization:将输入参数初始化为0

random initialization:随机初始化输入参数,权重w初始化的值较大

He initialization:在一定范围内随即初始化权重w值


zero initialization实现代码:

    for l in range(1, L):
        parameters['W' + str(l)] = np.zeros((layers_dims[l], layers_dims[l-1])) 
        parameters['b' + str(l)] = np.zeros((layers_dims[l], 1))

训练结果是cost函数不下降,一层中的每个神经元学习的内容都一样,导致无法打破对称性。为了打破对称性,w的值需要随机初始化,b的值则可以初始化为0.

random initialization实现代码:

    for l in range(1, L):
        parameters['W' + str(l)] = np.random.randn(layers_dims[l], layers_dims[l-1]) * 10
        parameters['b' + str(l)] = np.zeros((layers_dims[l], 1))

权重w随机初始化为较大的值,b初始化为0,这

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值