为什么神经网络需要初始化权重 如果初始化时将隐藏神经元的参数设置相同的话,那么隐藏神经元对输出单元的影响也是一样的,通过反向传播计算梯度的时候,会得到大小一样的梯度,经过多次迭代后,最终各个隐藏单元对输出都是一样的,那么设置多个隐藏神经元就没有了意义。 如何初始化权重 设置某层权重矩阵为: n[l-1] 表示l层每个神经元的输入有[l-1]个 通过np.random.randn 高斯随机变量初始化使得输入的特征均值为0 方差为1,这样 z的输出也会调整为相似的范围,从而缓解了梯度消失或梯度爆炸