多次训练可以知道无论怎么训练最后得到的权重的值都是不一样的
但是分布的范围一样的这也就是说AB=CD,只要等式成立即可,这个可以从图中看出两个层无论多少次从0开始训练,都会得到最后这个图 也就是一个层的范围,和另一个层的范围永远都不会不变。只要网络结构固定和数据集固定,这lin1*lin2等于一个值(最后的函数)
这也证明了前面的两个分析 观点是对的
和傅里叶说的一致性
总结的公式一致性
同时还能说明只要数据集固定,每个层的权重分布的范围是固定的
通过公式也可以看出这一个点
x [ 激活函数(A1)B1+…+激活函数(An)Bn]=y
也就是说只要某一层的权重值包括(A,B,C 。。。)无论顺序如何都可以得到结果一样的y
但是一旦确定了位置就不能变,但是另一次从0开始,就可以变化。(这其实正式矩阵乘法的体现),最近看到一个文章中说卡车司机的小脑神经细胞大于地铁司机的小脑神经细胞,也就是说神经细胞的大小决定了,自主控制的能力(卡车司机自己控制,地铁司机自动控制)
从图中可以看出每个层的范围无论几次从0开始训练,每个层的范围都是一致的。所以说
神经网络的每个节点不能代表