假设1:完全相同的两个对象无法被分成两类,与之对应的分类迭代次数为无穷大。
推论:相等收敛误差下迭代次数越大表明二者差异越小。
如果完全相同的两个对象可以被分成两类,则表明这不是完全相同的两个对象,这与前提矛盾。因此假设1是可以从逻辑上用反证法去证明的。由假设一得到的推论是自然的,在逻辑上也是合理的,推论1 表明在收敛误差相同的前提下,神经网络的迭代次数与两个分类对象的差异成反比。也就是与差异的倒数成正比
其中n为迭代次数,d1和d2是两个被分类对象的内在特征差异,他们的乘积构成了两个分类对象的总的差异。
大量实验表明,在分类对象不变的前提下,收敛误差δ越小,收敛迭代次数越大。也就是迭代次数与收敛误差成反比
因此迭代次数与两个分类对象的差异的倒数成正比,与收敛误差成反比,所以可以得到,
其中的c是系数
如果设
则可以化简得到
神经网络的迭代次数与分类对象的差异的倒数成正比,与收敛误差成反比。