tony2278的专栏

海阔心无界

神经网络隐含层节点数

一般有几个经验公式


当训练集确定之后,输入层结点数和输出层结点数随之而确定,首先遇到的一个十分重要而又困难的问题是如何优化隐层结点数和隐层数。实验表明,如果隐层结点数过少,网络不能具有必要的学习能力和信息处理能力。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其重要),网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的选择问题一直受到高度重视。

方法1: 
fangfaGorman指出隐层结点数s与模式数N的关系是:s=log2N;

方法二: 
Kolmogorov定理表明,隐层结点数s=2n+1(n为输入层结点数);

方法三: 
s=sqrt(0.43mn+0.12nn+2.54m+0.77n+0.35)+0.51 
(m是输入层的个数,n是输出层的个数)。



From: 

1  https://blog.csdn.net/a14206149/article/details/50788081

2  https://blog.csdn.net/u013421629/article/details/78329191



阅读更多
想对作者说点什么? 我来说一句

没有更多推荐了,返回首页

不良信息举报

神经网络隐含层节点数

最多只允许输入30个字

加入CSDN,享受更精准的内容推荐,与500万程序员共同成长!
关闭
关闭