神经网络的分类准确率是100%到底意味着什么?

(A,B)---n*m*2---(1,0)(0,1)

做一个网络分类A和B,随着迭代次数的增加A与B的分类准确率会不断的增加并无限的接近或达到100%。所以是否有一个物理过程与这个现象相对应?

 

先引入一个假设

假设1:完全相同的两个对象无法被分成两类,与之对应的分类迭代次数为无穷大,分类准确率是50%,50%。相等收敛标准下迭代次数越大表明二者差异越小。

比如参与分类的两个对象是两个小球A与B,训练集是这两个小球的波函数,这两个小球彼此向对方运动,并最终碰撞变成了球C,因此A和B的分类结果就是C的分裂结果

按照假设1,如果A=B,则小球C会稳定的存在,因为组成C的波函数是两组相同的数据集,无法彼此分类,也就不会导致C的分裂。或者即便C分裂了,A与B也将是无法被分类的两个对象,他们的运动完全同步,超距作用,向一对纠缠的粒子。

 

但如果A≠B会发生什么?

以神经网络的作用过程为例,A与B之间的分类准确率会变大。这个过程可以合理的假设当迭代次数足够大的时候,这两个对象的分类准确率会变成100%。

也就意味这A与B完全分开,彼此不会对对方的运动造成任何影响。

要实现这种状态可以假设,比如A与B的距离是无限大则A的运动状态将永远也不会影响到B;或者假设A与B以光速远离对方,则彼此将永远无法接受到对方的任何物理信息,彼此对对方来说仅仅具有逻辑意义。

 

所以神经网络迭代的过程可以等效的理解成是加速A和B远离,并最终无限的接近光速的过程。

所以由此导出假设2

 

对应不同的两个对象,迭代次数越大,二者的相对速度越大;相对速度越大分类准确率越大。

也就是迭代次数是两个分类对象差异大小的量度,这个值只能在不同的分类对象间间接的比较,是一个静态的值。而分类准确率仅仅是分类对象相对速度的量度,是一个动态的值。因为对神经网络而言训练集是特征不变的,则两个训练集的差异也不应该随着时间的推移而不断变化。

所有由假设2,考虑C是一个原子核,A与B是两个粒子。则神经网络的分类过程可以理解成是一个原子核C衰变分裂成两个粒子A和B,并让A和B不断加速的由斥力主导的裂变作用过程

 

或者也可以反过来理解神经网络的作用过程,是将两个相对速度为近光速的粒子,在一巨大能量的作用下减速,并不断靠近以致最终合在一起,成为物理上的同一个对象C。也就是神经网络的逆过程可以看作一个由引力主导的聚变过程。

 


 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

黑榆

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值