(A,B)---m*n*k---(1,0)(0,1)
移动距离和的假设
用神经网络分类A和B,把参与分类的A和B中的数字看作是组成A和B的粒子,设分类的过程就是让A和B中的粒子互相交换位置,寻找最短移动路径的过程。而熵H与最短移动距离和成正比,迭代次数n和熵H成反比。
对二值化图片移动规则汇总
每个粒子移动一次,位置重合不移动,0不动,单次移动距离恒为1.
这次来分类97x系列图片,来验证这一规律
让A中有9个1,B中有7个1.让A和B两张图片不断迭代直到收敛。并在收敛误差一致的条件下,统计迭代次数并比较。
971 | 972 | 973 | 974 | |
δ | 迭代次数n | 迭代次数n | 迭代次数n | 迭代次数n |
5.00E-04 | 28229.22 | 28354.02 | 28309.47 | 28335.54 |
4.00E-04 | 34548.15 | 34117.38 | 34544.11 | 34501.44 |
3.00E-04 | 44497.27 | 45254.76 | 44562.86 | 44488.83 |
2.00E-04 | 64693.36 | 65106.89 | 65025.41 | 64844.48 |
1.00E-04 | 123601.3 | 122913.8 | 123474.3 | 122906.4 |
从图像上看,这4条迭代次数曲线是高度重合的。尽管971到974的4张图片相对于A的对称性完全不同,但他们的迭代次数曲线却是一致的。这可以很容易的用移动距离和假设去解释。
比如971,因为971B中的所有粒子和A中的粒子都重合,因此无需移动。仅有A中的两个粒子(0,0),和(0,1)需要移动。移动距离恒为1,因此总移动距离为2.而972,973,974可以用同样的办法去计算,总移动距离都为2,因此971-974的移动距离相同,迭代次数相同。
再选择另外4组有代表性的图片继续验证这一假设。
得到迭代次数如下
971 | 972 | 973 | 974 | 975 | 976 | 977 | 978 | |
δ | 迭代次数n | 迭代次数n | 迭代次数n | 迭代次数n | 迭代次数n | 迭代次数n | 迭代次数n | 迭代次数n |
5.00E-04 | 28229.22 | 28354.02 | 28309.47 | 28335.54 | 28251.55 | 28242.4 | 28144.73 | 28200.18 |
4.00E-04 | 34548.15 | 34117.38 | 34544.11 | 34501.44 | 34456.73 | 34433.18 | 34380.52 | 34608.27 |
3.00E-04 | 44497.27 | 45254.76 | 44562.86 | 44488.83 | 44923.74 | 45000.14 | 44638 | 45111.3 |
2.00E-04 | 64693.36 | 65106.89 | 65025.41 | 64844.48 | 64533.4 | 65383.26 | 64872.24 | 64756.66 |
1.00E-04 | 123601.3 | 122913.8 | 123474.3 | 122906.4 | 123218 | 123242.1 | 123735.1 | 122144.1 |
971-978的数据都是高度重合的,因为975-978的单次移动距离也都是2,因此他们和971-974的迭代次数是相同的。
将本次实验得到的数据与前述实验得到的数据相比较
981 | 941 | 122 | 971 | |
δ | 迭代次数n | 迭代次数n | 迭代次数n | 迭代次数n |
5.00E-04 | 34219.01 | 22959.57 | 25862.05 | 28229.22 |
4.00E-04 | 41899.68 | 27774.2 | 31524.1 | 34548.15 |
3.00E-04 | 53474.56 | 35993.35 | 41011.36 | 44497.27 |
2.00E-04 | 77797.83 | 52950.71 | 59270.11 | 64693.36 |
1.00E-04 | 148175 | 101146.2 | 112397.9 | 123601.3 |
总移动距离 | 1 | 5 | 3 | 2 |
移动距离s排序
S981<S971<S122<S941
熵H排序
H981<H971<H122<H941
迭代次数n排序
n981>n971>n122>n941
所以迭代次数的大小关系可以由移动距离和假设得到很好的解释。
所以神经网络的训练过程就是训练了一种移位规则,这个规则可以让A移位成B,同时让B移位成A。所以神经网络的输出位(1,0)的意思就是可以完成由A到B的移位,而(0,1)的意思就是可以完成由B到A的移位。而一个未知的图片x如果被分类A,就意味着x可以完成由A到B的移位,就意味着x更接近A。所以神经网络的分类结果可以理解为取决于x相对A和B的距离。