神经网络权重与核子的波函数

(A,B)---m*n*k---(1,0)(0,1)

假设1:完全相同的两个对象无法被分成两类,与之对应的分类迭代次数为无穷大,分类准确率是50%,50%。相等收敛标准下迭代次数越大表明二者差异越小。

如果将神经网络的训练集理解为Fock矩阵,把权重看作波函数的系数,则神经网路的收敛过程可理解为求本征态的过程。那如何理解随着收敛误差的减小迭代次数越大,分类准确率越大的现象?

按照假设1可以认为迭代次数大表明两个被分类对象变得更加相似,但训练集显然是不会随着收敛误差的减小而变化,所以相似的是什么?

可以把本征方程组拆成WA和WB的方程组,网络收敛显然就是求WA=WB的过程,收敛误差越小,|WA-WB|的误差越小,也就是WA与WB越一致。所以收敛过程让两个粒子的波函数变得一致。

神经网络的衰变假设:粒子A和B彼此互为粒子和环境,在相互作用中被彼此衰变,网络的分类准确率是两个粒子衰变剩余的算术和pave=Σpr。

考虑分类准确率和衰变剩余两个概念内在含义的相似性,可以理解如果粒子和环境越相似则这个粒子越稳定,能级越低,越不容易衰变,分类准确率越高。

因为电子的运动并不会对粒子的衰变有影响,如果让这个解释是正确的,W只能是核子的波函数。所谓的外部环境就是另一个成核的核子,这符合核力是短程力的特征,并满足因果律。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

黑榆

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值