权值初始化问题
在对神经网络权值初始化时,大家都会选择将其随机初始,如果全赋值为相同数,则会破坏不对称,不应该这样。但如果我们偏要初始化一样,那么会发生什么呢?
从传递公式上,可以明确,前向传播中,每层的神经网络节点输出值都一样【权值初始化为0比较特殊,我在下文中会对这种情况做详细分析】(这里有个前提:BP网络为全连接,且加入了激活函数,激活函数为sigmod函数),那反向传递时,其权值偏导值应该也是相同的,那么就可以得出:会使每层节点对前一层的所有权值全部相同!但层与层的权值会不相同,做了下实验,将权值全部置为1,偏置置为0,实验结果也证实了这点,如下: