1、神经网络隐含层节点数过多的危害!
实验表明,如果隐层结点数过少,网络不能具有必要的学习能力和信息处理能力。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其重要),网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的选择问题一直受到高度重视。
方法1:
fangfaGorman指出隐层结点数s与模式数N的关系是:s=log2N;
方法二:
Kolmogorov定理表明,隐层结点数s=2n+1(n为输入层结点数);
方法三:
s=sqrt(0.43mn+0.12nn+2.54m+0.77n+0.35)+0.51
(m是输入层的个数,n是输出层的个数)。
谷歌人工智能写作项目:小发猫
2、BP神经网络的隐层节点数对预测精度有何影响
神经网络本身的优化过程,实际上是对一组更加有效的层节点值进行选择