数据预处理-归一化
在训练神经网络前一般需要对数据进行预处理,一种重要的预处理手段是归一化处理。下面简要介绍归一化处理的原理与方法。
什么是归一化
数据归一化,就是将数据映射到[0,1]或[-1,1]区间或更小的区间,比如(0.1,0.9) 。为什么要归一化处理
<1>输入数据的单位不一样,有些数据的范围可能特别大,导致的结果是神经网络收敛慢、训练时间长。
<2>数据范围大的输入在模式分类中的作用可能会偏大,而数据范围小的输入作用就可能会偏小。
<3>由于神经网络输出层的激活函数的值域是有限制的,因此需要将网络训练的目标数据映射到激活函数的值域。例如神经网络的输出层若采用S形激活函数,由于S形函数的值域限制在(0,1),也就是说神经网络的输出只能限制在(0,1),所以训练数据的输出就要归一化到[0,1]区间。
<4>S形激活函数在(0,1)区间以外区域很平缓,区分度太小。例如S形函数f(X)在参数a=1时,f(100)与f(5)只相差0.0067。
归一化算法
我最经常用的是线性转换,很方便。 只要知道字段的 最大值和最小值即可。
线性函数转换
表达式如下:
y=(x-MinValue)/(MaxValue-MinValue) (归一到0 1 之间)
y=0.1+(x-min)/(max-min)*(0.9-0.1)(归一到0.1-0.9之间)
说明:x、y分别为转换前、后的值,MaxValue、MinValue分别为样本的最大值和最小值。
对数函数转换
表达式如下:
y=log10(x)
说明:以10为底的对数函数转换。
反余切函数转换
表达式如下:
y=atan(x)*2/PI
Matlab数据归一化处理函数
Matlab中归一化处理数据可以采用premnmx , postmnmx , tramnmx 这3个函数。
premnmx
语法:[pn,minp,maxp,tn,mint,maxt] = premnmx(p,t)参数:
pn: p矩阵按行归一化后的矩阵
minp,maxp:p矩阵每一行的最小值,最大值
tn:t矩阵按行归一化后的矩阵
mint,maxt:t矩阵每一行的最小值,最大值
作用:将矩阵p,t归一化到[-1,1] ,主要用于归一化处理训练数据集。
tramnmx
语法:[pn] = tramnmx(p,minp,maxp)参数:
minp,maxp:premnmx函数计算的矩阵的最小,最大值
pn:归一化后的矩阵
作用:主要用于归一化处理待分类的输入数据。
postmnmx
语法: [p,t] = postmnmx(pn,minp,maxp,tn,mint,maxt)参数:
minp,maxp:premnmx函数计算的p矩阵每行的最小值,最大值
mint,maxt:premnmx函数计算的t矩阵每行的最小值,最大值
作用:将矩阵pn,tn映射回归一化处理前的范围。postmnmx函数主要用于将神经网络的输出结果映射回归一化前的数据范围。
使用Matlab实现神经网络
使用Matlab建立前馈神经网络主要会使用到下面3个函数:
newff :前馈网络创建函数
train:训练一个神经网络
sim :使用网络进行仿真
下面简要介绍这3个函数的用法。
newff函数
newff函数语法
newff函数参数列表有很多的可选参数,具体可以参考Matlab的帮助文档,这里介绍newff函数的一种简单的形式。语法:net = newff ( A, B, {C} ,‘trainFun’)
参数:
A:一个n×2的矩阵,第i行元素为输入信号xi的最小值和最大值;
B:一个k维行向量,其元素为网络中各层节点数;
C:一个k维字符串行向量,每一分量为对应层神经元的激活函数;
trainFun :为学习规则采用的训练算法。
常用的激活函数
常用的激活函数有:a) 线性函数 (Linear transfer function)
f(x) = x
该函数的字符串为’purelin’。
b) 对数S形转移函数( Logarithmic sigmoid transfer function )
该函数的字符串为’logsig’。
c) 双曲正切S形函数 (Hyperbolic tangent sigmoid transfer function )
也就是上面所提到的双极S形函数。
该函数的字符串为’ tansig’。
Matlab的安装目录下的toolbox\nnet\nnet\nntransfer子目录中有所有激活函数的定义说明。
常见的训练函数
常见的训练函数有:traingd :梯度下降BP训练函数(Gradient descent backpropagation)
traingdx :梯度下降自适应学习率训练函数
网络配置参数
一些重要的网络配置参数如下:net.trainparam.goal :神经网络训练的目标误差
net.trainparam.show : 显示中间结果的周期
net.trainparam.epochs :最大迭代次数
net.trainParam.lr : 学习率
train函数
网络训练学习函数。语法:[ net, tr, Y1, E ] = train( net, X, Y )
参数:
X:网络实际输入
Y:网络应有输出
tr:训练跟踪信息
Y1:网络实际输出
E:误差矩阵
sim函数
语法:Y=sim(net,X)参数:
net:网络
X:输入给网络的K×N矩阵,其中K为网络输入个数,N为数据样本数
Y:输出矩阵Q×N,其中Q为网络输出个数
Matlab BP网络实例
我将Iris数据集分为2组,每组各75个样本,每组中每种花各有25个样本。其中一组作为以上程序的训练样本,另外一组作为检验样本。为了方便训练,将3类花分别编号为1,2,3 。
使用这些数据训练一个4输入(分别对应4个特征),3输出(分别对应该样本属于某一品种的可能性大小)的前向网络。
Matlab程序如下:
参数设置对神经网络性能的影响
我在实验中通过调整隐含层节点数,选择不通过的激活函数,设定不同的学习率隐含层节点个数
隐含层节点的个数对于识别率的影响并不大,但是节点个数过多会增加运算量,使得训练较慢。激活函数的选择
激活函数无论对于识别率或收敛速度都有显著的影响。在逼近高次曲线时,S形函数精度比线性函数要高得多,但计算量也要大得多。学习率的选择
学习率影响着网络收敛的速度,以及网络能否收敛。学习率设置偏小可以保证网络收敛,但是收敛较慢。相反,学习率设置偏大则有可能使网络训练不收敛,影响识别效果。
使用AForge.NET实现神经网络
AForge.NET简介
AForge.NET是一个C#实现的面向人工智能、计算机视觉等领域的开源架构。AForge.NET源代码下的Neuro目录包含一个神经网络的类库。AForge.NET主页:http://www.aforgenet.com/
AForge.NET代码下载:http://code.google.com/p/aforge/
下面介绍图9中的几个基本的类:
Neuron — 神经元的抽象基类
Layer — 层的抽象基类,由多个神经元组成
Network —神经网络的抽象基类,由多个层(Layer)组成
IActivationFunction - 激活函数(activation function)的接口
IUnsupervisedLearning - 无导师学习(unsupervised learning)算法的接口ISupervisedLearning - 有导师学习(supervised learning)算法的接口
使用Aforge建立BP神经网络
使用AForge建立BP神经网络会用到下面的几个类:
SigmoidFunction : S形神经网络
构造函数:public SigmoidFunction( double alpha )
参数alpha决定S形函数的陡峭程度。
ActivationNetwork :神经网络类
构造函数:
public ActivationNetwork( IActivationFunction function, int inputsCount, params int[] neuronsCount )
: base( inputsCount, neuronsCount.Length )
public virtual double[] Compute( double[] input )
参数意义:
inputsCount:输入个数
neuronsCount :表示各层神经元个数
BackPropagationLearning:BP学习算法
构造函数:
public BackPropagationLearning( ActivationNetwork network )
参数意义:
network :要训练的神经网络对象
BackPropagationLearning类需要用户设置的属性有下面2个:
learningRate :学习率
momentum :冲量因子
下面给出一个用AForge构建BP网络的代码。
Aforge的相关参考链接:
http://www.codeproject.com/Articles/16447/Neural-Networks-on-C
http://code.google.com/p/aforge/
http://www.aforgenet.com/forum/viewtopic.php?f=2&t=343
我的实例
根据上一篇文章 神经网络模型 中说到的判断 建筑形态。
样本的选择
每种分类中随机选取一部分。剩余的作为测试数据。在预测测试样本结果时中把预测错误的标识出来,把对应的样本添加到训练的样本中。这样能很快训练出成功率达到90+甚至100%的网络
部分代码
如下:
训练网络
我这里是 4个输入 得到 4个输出
单个预测
可能遇到的问题
Aforge如何保存训练好的神经网络
在使用Aforge时 要确定下的版本是不是最新版,如果不是最新版的话可能没有保存的方法。
如果支持保存 可用如下方法保存:
加载神经网络:
神经网络不收敛
收敛不了有可能是样本中出现了 用一种输入得到不同输出。清除一对二的情况。
学习步长和误差率的设置会影响到收敛 一般100条左右的数据收敛时间在 2分钟内 清除一对二之后 很久都没收敛 要适当修改神经元个数,学习步长等。 我100左右的样本 我一般用7或者10个 12个神经元。
学习步长也应该 注意, 决定学习步长时 你要观察归一化出来的输入数据,虽然说学习步长太大了会导致不收敛,太小了能保证收敛,但速度有很可能很慢, 比如 输入数据中有0.1 也有0.6 如果 学习步长设置为0.01 那收敛速度就会超慢。 设置成0.1 就很快
神经网络参数设置比较;
其他因素一样的情况下:
学习步长:0.1比1快
神经元7个比3个快
函数陡峭度 1比3快 但正确率比3低