第0节、引例
有一批Iris花,已知这批Iris花可分为3个品种,现需要对其进行分类。已知不同品种的Iris花的花萼长度、花萼宽度、花瓣长度、花瓣宽度会有差异。而且我们还有一批已知品种的Iris花的花萼长度、花萼宽度、花瓣长度、花瓣宽度的数据。
一种解决方法是用已有的数据训练一个神经网络,用作分类器。这也是本文要实现的目的。
如果你只想用C#或Matlab快速实现神经网络来解决你手头上的问题,或者已经了解神经网络基本原理,请直接跳到第二节——神经网络实现。
如果你对神经网络基本原理还不清楚,我建议你还是从第一节开始阅读。
第一节、神经网络基本原理
1. 人工神经元( Artificial Neuron )模型
图1. 人工神经元模型
图中 yi表示神经元i的输出,函数f称为激活函数 ( Activation Function )或转移函数 ( Transfer Function ) ,net称为净激活(net activation)。若将阈值看成是神经元i的一个输入x0的权重wi0,则上面的式子可以简化为:
若用X表示输入向量,用W表示权重向量,即:
X = [ x0 , x1 , x2 , ....... , xn ]
则神经元的输出可以表示为向量相乘的形式:
2. 常用激活函数
(1) 线性函数 ( Liner Function )
(2) 斜面函数 ( Ramp Function )
(3) 阈值函数 ( Threshold Function )
图2 . 阈值函数图像
(4) S形函数 ( Sigmoid Function )
该函数的导函数:
(5) 双极S形函数
该函数的导函数:
S形函数与双极S形函数的图像如下:
图3. S形函数与双极S形函数图像
双极S形函数与S形函数主要区别在于函数的值域,双极S形函数值域是(-1,1),而S形函数值域是(0,1)。
由于S形函数与双极S形函数都是可导的(导函数是连续函数),因此适合用在BP神经网络中。(BP算法要求激活函数可导)
3. 神经网络模型
(1) 前馈神经网络 ( Feedforward Neural Networks )
图4. 前馈神经网络
对于一个3层的前馈神经网络N,若用X表示网络的输入向量,W1~W3表示网络各层的连接权向量,F1~F3表示神经网络3层的激活函数。
那么神经网络的第一层神经元的输出为:
O1 = F1( XW1 )
第二层的输出为:
O2 = F2 ( F1( XW1 ) W2 )
输出层的输出为:
O3 = F3( F2 ( F1( XW1 ) W2 ) W3 )
(2) 反馈神经网络 ( Feedback Neural Networks )
图5. 反馈神经网络
(3) 自组织网络 ( SOM ,Self-Organizing Neural Networks )
图6. 自组织网络
4. 神经网络工作方式
(1)神经网络的学习状态
1)
2)
3)
4)
5) 对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。
BP算法就是一种出色的有导师学习算法。
(2) 神经网络的工作状态
下面简要介绍一下Hebb学习率与Delta学习规则 。
(3) 无导师学习算法:Hebb学习率
Hebb算法核心思想是,当两个神经元同时处于激发状态时两者间的连接权会被加强,否则被减弱。
图7. 巴甫洛夫的条件反射实验
受该实验的启发,Hebb的理论认为在同一时间被激发的神经元间的联系会被强化。比如,铃声响时一个神经元被激发,在同一时间食物的出现会激发附近的另一个神经元,那么这两个神经元间的联系就会强化,从而记住这两个事物之间存在着联系。相反,如果两个神经元总是不能同步激发,那么它们间的联系将会越来越弱。
Hebb学习律可表示为:
(4) 有导师学习算法:Delta学习规则
Delta学习规则是一种简单的有导师学习算法,该算法根据神经元的实际输出与期望输出差别来调整连接权,其数学表示如下:
(5)有导师学习算法:BP算法
采用BP学习算法的前馈型神经网络通常被称为BP网络。
图8. 三层BP神经网络结构
BP网络具有很强的非线性映射能力,一个3层BP神经网络能够实现对任意非线性函数进行逼近(根据Kolrnogorov定理)。一个典型的3层BP神经网络模型如图7所示。
BP网络的学习算法占篇幅较大,我打算在下一篇文章中介绍。
第二节、神经网络实现
1. 数据预处理
(1) 什么是归一化?
数据归一化,就是将数据映射到[0,1]或[-1,1]区间或更小的区间,比如(0.1,0.9) 。
(2) 为什么要归一化处理?
<1>输入数据的单位不一样,有些数据的范围可能特别大,导致的结果是神经网络收敛慢、训练时间长。
<2>数据范围大的输入在模式分类中的作用可能会偏大,而数据范围小的输入作用就可能会偏小。
<3>由于神经网络输出层的激活函数的值域是有限制的,因此需要将网络训练的目标数据映射到激活函数的值域。例如神经网络的输出层若采用S形激活函数,由于S形函数的值域限制在(0,1),也就是说神经网络的输出只能限制在(0,1),所以训练数据的输出就要归一化到[0,1]区间。
<4>S形激活函数在(0,1)区间以外区域很平缓,区分度太小。例如S形函数f(X)在参数a=1时,f(100)与f(5)只相差0.0067。
(3) 归一化算法
一种简单而快速的归一化算法是线性转换算法。线性转换算法常见有两种形式:
y = ( x - min )/( max - min )
其中min为x的最小值,max为x的最大值,输入向量为x,归一化后的输出向量为y 。上式将数据归一化到 [ 0 , 1 ]区间,当激活函数采用S形函数时(值域为(0,1))时这条式子适用。
y = 2 * ( x - min ) / ( max - min ) - 1
(4) Matlab数据归一化处理函数
Matlab中归一化处理数据可以采用premnmx , postmnmx , tramnmx 这3个函数。
<1> premnmx
语法:[pn,minp,maxp,tn,mint,maxt] = premnmx(p,t)
参数:
pn: p矩阵按行归一化后的矩阵
minp,maxp:p矩阵每一行的最小值,最大值
tn:t矩阵按行归一化后的矩阵
mint,maxt:t矩阵每一行的最小值,最大值
作用:将矩阵p,t归一化到[-1,1] ,主要用于归一化处理训练数据集。
<2> tramnmx
语法:[pn] = tramnmx(p,minp,maxp)
参数:
minp,maxp:premnmx函数计算的矩阵的最小,最大值
pn:归一化后的矩阵
作用:主要用于归一化处理待分类的输入数据。
<3> postmnmx
语法: [p,t] = postmnmx(pn,minp,maxp,tn,mint,maxt)
参数:
minp,maxp:premnmx函数计算的p矩阵每行的最小值,最大值
mint,maxt:premnmx函数计算的t矩阵每行的最小值,最大值
作用:将矩阵pn,tn映射回归一化处理前的范围。postmnmx函数主要用于将神经网络的输出结果映射回归一化前的数据范围。
2. 使用Matlab实现神经网络
使用Matlab建立前馈神经网络主要会使用到下面3个函数:
newff :前馈网络创建函数
train:训练一个神经网络
sim :使用网络进行仿真
(1) newff函数
<1>newff函数语法
语法:net = newff ( A, B, {C} ,‘trainFun’)
参数:
A:一个n×2的矩阵,第i行元素为输入信号xi的最小值和最大值;
B:一个k维行向量,其元素为网络中各层节点数;
C:一个k维字符串行向量,每一分量为对应层神经元的激活函数;
trainFun :为学习规则采用的训练算法。
<2>常用的激活函数
常用的激活函数有:
a) 线性函数 (Linear transfer function)
f(x) = x
该函数的字符串为’purelin’。
b) 对数S形转移函数( Logarithmic sigmoid transfer function )
c) 双曲正切S形函数 (Hyperbolic tangent sigmoid transfer function )
也就是上面所提到的双极S形函数。
该函数的字符串为’ tansig’。
Matlab的安装目录下的toolbox\nnet\nnet\nntransfer子目录中有所有激活函数的定义说明。
<3>常见的训练函数
traingd :梯度下降BP训练函数(Gradient descent backpropagation)
traingdx :梯度下降自适应学习率训练函数
<4>网络配置参数
一些重要的网络配置参数如下:
net.trainparam.goal
net.trainparam.show
net.trainparam.epochs :最大迭代次数
net.trainParam.lr
(2) train函数
语法:[ net, tr, Y1, E ]
参数:
X:网络实际输入
Y:网络应有输出
tr:训练跟踪信息
Y1:网络实际输出
E:误差矩阵
(3) sim函数
语法:Y=sim(net,X)
参数:
net:网络
X:输入给网络的K×N矩阵,其中K为网络输入个数,N为数据样本数
Y:输出矩阵Q×N,其中Q为网络输出个数
(4) Matlab BP网络实例
[x1,x2,x3,x4,g] = textread( ' trainData.txt ' , ' %f%f%f%f%f ' , 150 );
% 训练数据归一化
[input,minI,maxI,output,minO,maxO] = premnmx( [x1 , x2 , x3 , x4 ] ' , g ' ) ;
% 创建神经网络
net = newff( minmax(input) , [ 4 1 ] , { ' logsig ' ' purelin ' } , ' traingdx ' ) ;
% 配置参数
net.trainparam.show = 50 ;
net.trainparam.epochs = 500 ;
net.trainparam.goal = 0.001 ;
net.trainParam.lr = 0.01 ;
% 训练
net = train( net, input , output ) ;
% 读取测试数据
[x1 x2 x3 x4 x5] = textread( ' testData.txt ' , ' %f%f%f%f%f ' , 150 );
% 测试数据归一化
testInput = tramnmx ( [x1,x2,x3,x4] ' , minI, maxI ) ;
% 仿真
Y = sim(net , testInput ) ;
% 仿真结果映射到原来的数据范围
B = postmnmx( Y , minO , maxO )
以上程序的识别率稳定在95%左右,训练100次左右达到收敛,训练曲线如下图所示:
图9. 训练性能表现
(5)参数设置对神经网络性能的影响
<1>隐含层节点个数
隐含层节点的个数对于识别率的影响并不大,但是节点个数过多会增加运算量,使得训练较慢。
<2>激活函数的选择
<3>学习率的选择
3. 使用AForge.NET实现神经网络
(1) AForge.NET简介
AForge.NET主页:http://www.aforgenet.com/
AForge.NET代码下载:http://code.google.com/p/aforge/
Aforge.Neuro工程的类图如下:
图10. AForge.Neuro类库类图
下面介绍图9中的几个基本的类:
Neuron — 神经元的抽象基类
Layer — 层的抽象基类,由多个神经元组成
Network —神经网络的抽象基类,由多个层(Layer)组成
IActivationFunction - 激活函数(activation function)的接口
IUnsupervisedLearning - 无导师学习(unsupervised learning)算法的接口ISupervisedLearning - 有导师学习(supervised learning)算法的接口
(2)使用Aforge建立BP神经网络
<1>
构造函数:public SigmoidFunction( double alpha )
参数alpha决定S形函数的陡峭程度。
<2>
构造函数:
public ActivationNetwork( IActivationFunction function, int inputsCount, params int[] neuronsCount )
public virtual double[] Compute( double[] input )
参数意义:
inputsCount:输入个数
neuronsCount :表示各层神经元个数
<3>
public BackPropagationLearning( ActivationNetwork network )
network :要训练的神经网络对象
BackPropagationLearning类需要用户设置的属性有下面2个:
learningRate :学习率
momentum :冲量因子
下面给出一个用AForge构建BP网络的代码。
ActivationNetwork network = new ActivationNetwork(
new SigmoidFunction(2), 4, 5, 1);
// 创建训练算法对象
BackPropagationLearning teacher = new
BackPropagationLearning(network);
// 设置BP算法的学习率与冲量系数
teacher.LearningRate = 0.1;
teacher.Momentum = 0;
int iteration = 1 ;
// 迭代训练500次
while( iteration < 500 )
{
teacher.RunEpoch( trainInput , trainOutput ) ;
++iteration ;
}
//使用训练出来的神经网络来分类,t为输入数据向量
network.Compute(t)[0]
文章来自:http://www.cnblogs.com/heaad/
转载请保留出处,thx!
参考文献
[1] Andrew Kirillov. Neural Networks on C#. [Online].
http://www.codeproject.com/KB/recipes/aforge_neuro.aspx
[2] Sacha Barber. AI : Neural Network for beginners. [Online].
http://www.codeproject.com/KB/recipes/NeuralNetwork_1.aspx
[3] Richard O. Duda, Peter E. Hart and David G. Stork. 模式分类. 机械工业出版社. 2010.4
[4] Wikipedia. Iris flower data set. [Online].