(A,B)---m*n*k---(1,0)(0,1)
假设1:完全相同的两个对象无法被分成两类,与之对应的分类迭代次数为无穷大,分类准确率是50%,50%。相等收敛标准下迭代次数越大表明二者差异越小。
如果将神经网络的训练集理解为Fock矩阵,把权重看作波函数的系数,则神经网路的收敛过程可理解为求本征态的过程。那如何理解随着收敛误差的减小迭代次数越大,分类准确率越大的现象?
按照假设1可以认为迭代次数大表明两个被分类对象变得更加相似,但训练集显然是不会随着收敛误差的减小而变化,所以相似的是什么?
可以把本征方程组拆成WA和WB的方程组,网络收敛显然就是求WA=WB的过程,收敛误差越小,|WA-WB|的误差越小,也就是WA与WB越一致。所以收敛过程让两个粒子的波函数变得一致。
神经网络的衰变假设:粒子A和B彼此互为粒子和环境,在相互作用中被彼此衰变,网络的分类准确率是两个粒子衰变剩余的算术和pave=Σpr。
考虑分类准确率和衰变剩余两个概念内在含义的相似性,可以理解如果粒子和环境越相似则这个粒子越稳定,能级越低,越不容易衰变,分类准确率越高。
因为电子的运动并不会对粒子的衰变有影响,如果让这个解释是正确的,W只能是核子的波函数。所谓的外部环境就是另一个成核的核子,这符合核力是短程力的特征,并满足因果律。