RBF网络的基本思想是:
用RBF作为隐单元的“基”构成隐含层空间,这样就可将输入矢量直接(即不需要通过权连接)映射到隐空间。根据Cover定理,低维空间不可分的数据到了高维空间会更有可能变得可分。换句话来说,RBF网络的隐层的功能就是将低维空间的输入通过非线性函数映射到一个高维空间。然后再在这个高维空间进行曲线的拟合。它等价于在一个隐含的高维空间寻找一个能最佳拟合训练数据的表面。这点与普通的多层感知机MLP是不同的。
当RBF的中心点确定以后,这种映射关系也就确定了。而隐含层空间到输出空间的映射是线性的,即网络的输出是隐单元输出的线性加权和,此处的权即为网络可调参数。由此可见,从总体上看,网络由输人到输出的映射是非线性的,而网络输出对可调参数而言却又是线性的。这样网络的权就可由线性方程组直接解出,从而大大加快学习速度并避免局部极小问题。
从另一个方面也可以这样理解,多层感知器(包括BP神经网络)的隐节点基函数采用线性函数,激活函数则采用Sigmoid函数或硬极限函数。而RBF网络的隐节点的基函数采用距离函数(如欧氏距离),并使用径向基函数(如Gaussian函数)作为激活函数。径向基函数关于n维空间的一个中心点具有径向对称性,而且神经元的输入离该中心点越远,神经元的激活程度就越低。隐节点的这一特性常被称为“局部特性”。
非线性变换的基本理论(Cover, 1965):
1.一个模式分类问题如果映射到一个高维空间将会比映射到一个低维空间更可能实现线性可分;
2. 隐空间的维数越高,逼近就越精确。
网络结构:
可

RBF神经网络利用径向基函数在高维空间中实现非线性映射,通过非线性变换基本理论使得低维空间的不可分数据在高维空间变得可分。网络结构包括输入层、RBF隐含层和线性输出层。类中心常通过k-means聚类确定,输出层参数可通过最小二乘法或梯度下降法优化。
最低0.47元/天 解锁文章
1843

被折叠的 条评论
为什么被折叠?



