读书使人充实,讨论使人机智,笔记使人准确…。凡有所学,皆成性格。
———— (英国)培根
多层前向神经网络原理介绍
多层前向神经网络原理介绍 | |
---|---|
多层前向神经网络(MLP)是神经网络中的一种, 它由一些最基本的神经元即节点组成, 如图1。除输入层外, 每一节点的输入为前一层所有节点输出值的和。 每一节点的激励输出值由节点输入、 激励函数及偏置量决定。 |
第i层为各节点的输入, 通常需要归一化到-1和1之间
在第 j j j层,节点的输入值为:
n e t j = ∑ w j i o i + θ j n e t_{j}=\sum w_{j i} o_{i}+\theta_{j} netj=∑wjioi+θj
其中
θ
j
\theta_{j}
θj为阈值,正阈值的作用将激励函数沿
x
x
x轴向左平移
节点的输出值为:
o
j
=
f
(
n
e
t
j
)
o_{j}=f\left(n e t_{j}\right)
oj=f(netj)
式中
f
f
f为节点的激励函数,通常选择如下
S
i
g
m
o
i
d
Sigmoid
Sigmoid函数:
f ( x ) = 1 1 + exp ( − x ) f(x)=\frac{1}{1+\exp (-x)} f(x)=1+exp(−x)1
在第k层的网络节点输入为: n e t k = ∑ w k j o j + θ k n e t_{k}=\sum w_{k j} o_{j}+\theta_{k} netk=∑wkjoj+θk
而输出为: o k = f ( n e t k ) o_{k}=f\left(n e t_{k}\right) ok=f(netk)
对每一个输入的模式样本 p p p,平方误差 E p E_{p} Ep,为:
E p = 1 2 ∑ k ( t p k − o p k ) 2 E_{p}=\frac{1}{2} \sum_{k}\left(t_{p k}-o_{p k}\right)^{2} Ep=21∑k(tpk−opk)2
全部学习样本总误差为:
E = 1 2 p ∑ p ∑ k ( t p k − o p k ) 2 E=\frac{1}{2 p} \sum_{p} \sum_{k}\left(t_{p k}-o_{p k}\right)^{2} E=2p1∑p∑k(tpk−opk)2
在学习过程中,系统将调整连接权和阀值,使 E p E_{p} Ep尽可能快地下降。
Matlab相关函数介绍
网络初始化函数
net= newff([ x m x_{m} xm, x M x_{M} xM],[ h 1 h 2 , … , h k h_{1}h_{2},…,h_{k} h1h2,…,hk],{ f 1 , f 2 , … , f k f_{1},f_{2},…,f_{k} f1,f2,…,fk})
x m x_{m} xm和 x M x_{M} xM分别为列向量,存储各样本数据的最小值和最大值;
第2个输入变量是一个行向量,输入各层节点数;
第3个输入变量是字符串,代表该层的传输函数.
常用 tan sig ( x ) = 1 − e − 2 x 1 + e − 2 x , log sig ( x ) = 1 1 + e − x \tan \operatorname{sig}(\mathrm{x})=\frac{1-e^{-2 x}}{1+e^{-2 x}}, \log \operatorname{sig}(\mathrm{x})=\frac{1}{1+e^{-x}} tansig(x)=1+e−2x1−e−2x,logsig(x)=1+e−x1
还可以用设定参数
设定迭代次数
Net.train.Param.epochs=1000
设定带动量的梯度下降算法(让学习的速度更快)
Net.train.Fcn=‘traingm’
网络训练函数
[net,tr,Y1,E1]=train(net,X,Y)
其中X为n×M矩阵,n为输入变量的个数,M为样本数
Y为m×M矩阵,m为输出变量的个数。
net为返回后的神经网络对象,tr为训练跟踪数据,tr.perf为各步目标函数值。
Y1为网络的最后输出,E1为训练误差向量
网络泛化函数
Y2=sim(net,X1)
其中X1为输入数据矩阵, 各列为样本数据。
Y2为对应输出值
神经网络实验
Matlab程序:
x=0:0.5:10;
y=0.2*exp(-0.2*x)+0.5*exp(-0.15*x).*sin(1.25*x);
plot(x,y) %画原始数据图
net=newff([0,10],[6,1],{'tansig','tansig'});%隐层节点选6个,y是一维为1,输入输出函数都是tansig
net=train(net,x,y); %进行网络训练
x1=0:0.1:10;
y1=sim(net,x1); %数据泛化
plot(x,y,'*',x1,y1,'r'); %作对比图
二图合一
由图像可知神经网络的函数拟合能力非常强
例2 蠓的分类(MCM89A)
这里我们可用三层神经网络进行判别。输入为15个二维向量, 输出也为15个二维向量。
其中Af对应的目标向量为(1,0), Apf对应的目标向量为(0,1)。
Matlab程序:
隐藏节点为5个,也可以尝试选择4,6个。网络越复杂可以选择更多,用tansig试试也可以
x=[1.24,1.36,1.38,1.38,1.38,1.40,1.48,1.54,1.56,1.14,1.18,1.20,1.26,1.28,1.30;
1.72,1.74,1.64,1.82,1.90,1.70,1.82,1.82,2.08,1.78,1.96,1.86,2.0, 2.0,1.96];
y=[1,1,1,1,1,1,1,1,1,0,0,0,0,0,0;
0,0,0,0,0,0,0,0,0,1,1,1,1,1,1];
xmin=min(x'); %求各指标最小值 %先转置,因为matlab只能对列求最大,最小,和平均值
xmax=max(x'); %求各指标最大值
net.trainParam.epochs=2500; %设定迭代步数
net=newff([xmin',xmax'],[5,2],{'logsig','logsig'}); %初始化网络
net=train(net,x,y); %进行网络训练
x1=[1.24,1.28,1.40;
1.80,1.84,2.04];%待分样本
y1=sim(net,x1); %数据泛化
plot(x(1,1:9),x(2,1:9),'*',x(1,10:15),x(2,10:15),'o',x1(1,:),x1(2,:),'p') %画数据图
grid on
三个样本输出值:
y1=0.1235 0.8995 0.0037
0.8785 0.0951 0.9986
图3 Af, Apf及待分样本数据图