神经网络的衰变假设:被概率密度表达的粒子A和B彼此互为粒子和环境,在相互作用中被彼此微扰产生衰变,衰变产物是B化A和A化B,网络的分类准确率是两个粒子衰变剩余的算术和pave=Σpr。
(A,B)---m*n*k---(1,0)(0,1)
如果用离散运动的框架来描述神经网络的分类行为,把神经网络的训练集A,B当作哈密顿算符, 权重W当作本征态,收敛准确率p0,p1当作本征值,则可以得到一个方程组
神经网络的收敛过程就是在算符A和B的约束下去寻找与最低能级p0和p1对应的共同本征态w的过程。
“如果它們(算符)是不可对易的,則共同本征态不是不可能有、就是比較少有的例外.”* 虽然大概率的神经网络的训练集不满足对易关系,但这并不违反量子力学原理。也就是假设不满足对易关系的算符A和B有共同的本征态。现在用训练集C,D替换A和B,
(C,D)---m*n*k---(1,0)(0,1)
实现参数迁移,这样就得到了一个方程组
表明参数迁移行为之所以可以实现的一个合理解释是,算符A,B,C,D可以有共同的本征态。
*狄拉克---量子力学原理 p52