matlab归一化与神经网络

转自:http://www.ilovematlab.cn/thread-12186-1-1.html

由于采集的各数据单位不一致,因而须对数据进行[-1,1]归一化处理,归一化方法主要有如下几种,供大家参考:(by james)

1、线性函数转换,表达式如下:
y=(x-MinValue)/(MaxValue-MinValue)
说明:x、y分别为转换前、后的值,MaxValue、MinValue分别为样本的最大值和最小值。
2、对数函数转换,表达式如下:
y=log10(x)
说明:以10为底的对数函数转换。
3、反余切函数转换,表达式如下:
y=atan(x)*2/PI
归一化是为了加快训练网络的收敛性,可以不进行归一化处理
归一化的具体作用是归纳统一样本的统计分布性。归一化在0-1之间是统计的概率分布,归一化在-1--+1之间是统计的坐标分布。归一化有同一、统一和合一的意思。无论是为了建模还是为了计算,首先基本度量单位要同一,神经网络是以样本在事件中的统计分别几率来进行训练(概率计算)和预测的,归一化是同一在0-1之间的统计概率分布;
当所有样本的输入信号都为正值时,与第一隐含层神经元相连的权值只能同时增加或减小,从而导致学习速度很慢。为了避免出现这种情况,加快网络学习速度,可以对输入信号进行归一化,使得所有样本的输入信号其均值接近于0或与其均方差相比很小。
归一化是因为sigmoid函数的取值是0到1之间的,网络最后一个节点的输出也是如此,所以经常要对样本的输出归一化处理。所以这样做分类的问题时用[0.9 0.1 0.1]就要比用[1 0 0]要好。
但是归一化处理并不总是合适的,根据输出值的分布情况,标准化等其它统计变换方法有时可能更好。
关于用premnmx语句进行归一化:
premnmx语句的语法格式是:[Pn,minp,maxp,Tn,mint,maxt]=premnmx(P,T)
其中P,T分别为原始输入和输出数据,minp和maxp分别为P中的最小值和最大值。mint和maxt分别为T的最小值和最大值。
premnmx函数用于将网络的输入数据或输出数据进行归一化,归一化后的数据将分布在[-1,1]区间内。
我们在训练网络时如果所用的是经过归一化的样本数据,那么以后使用网络时所用的新数据也应该和样本数据接受相同的预处理,这就要用到tramnmx。
下面介绍tramnmx函数:
[Pn]=tramnmx(P,minp,maxp)
其中P和Pn分别为变换前、后的输入数据,maxp和minp分别为premnmx函数找到的最大值和最小值。
(by terry2008)
matlab中的归一化处理有三种方法
1. premnmx、postmnmx、tramnmx
2. restd、poststd、trastd
3. 自己编程
具体用那种方法就和你的具体问题有关了
(by happy)
pm=max(abs(p(i,:))); p(i,:)=p(i,:)/pm;

for i=1:27
p(i,:)=(p(i,:)-min(p(i,:)))/(max(p(i,:))-min(p(i,:)));
end 可以归一到0 1 之间
0.1+(x-min)/(max-min)*(0.9-0.1)其中max和min分别表示样本最大值和最小值。

这个可以归一到0.1-0.9。

///

//

P=[123 15.0 1.10 70 0.2 0;123 15.0 1.10 70 0.2 0;145 16.0 1.50 120 0.4 0;130 15.0 1.40 135 0.4 0;110 12.0 1.40 100 0.4 0;148 18.0 1.80 95 0.8 0;225 14.0 1.90 130 0.8 0;308 10.0 1.00 160 0.6 0;287 10.0 1.00 130 0.6 0;300 8.0 1.80 100 0.4 0;230 10.0 2.30 120 0.6 0;230 26.0 3.50 180 0.4 0;310 26.0 1.80 128 0.2 0;310 26.0 1.80 128 0.2 1;259 4.0 3.00 160 0.6 0;320 4.0 5.4 60 0.6 0;520 30.0 0.94 120 0.6 0;400 9.0 7.50 34 0.4 0;400 9.0 4.00 34 0.4 0;227 12.0 3.50 30 0.4 0;227 12.0 3.50 30 0.4 1;900 26.0 2.00 200 0.6 0;1000 30.0 2.00 200 0.6 0;200 10.0 1.60 100 0.2 0;375 14.0 2.40 70 0.6 0;375 14.0 2.40 100 0.6 0]';
T=[7.00 13.40 14.00 12.00 10.70 9.00 9.75 10.50 9.50 10.00 13.00 20.00 16.80 29.60 16.40 9.70 13.00 8.00 6.00 3.50 7.00 27.00 38.00 8.50 9.70 12.90];
[Pn,minp,maxp,Tn,mint,maxt]=premnmx(P,T)
[Pn]=tramnmx(P,minp,maxp)
%  创建一个新的前向神经网络 
net_1=newff(minmax(P),[13,15,1],{'tansig','tansig','tansig'},'traingdm')
%  当前输入层权值和阈值
%inputWeights=net_1.IW{1,1}
%inputbias=net_1.b{1}
%  当前网络层权值和阈值
%layerWeights=net_1.LW{2,1}
%layerbias=net_1.b{2}
%  设置训练参数
net_1.trainParam.show = 50;
net_1.trainParam.lr = 0.5;
%net_1.trainParam.mc = 0.9;
net_1.trainParam.epochs = 10000;
net_1.trainParam.goal = 0.01;
%  调用 TRAINGDM 算法训练 BP 网络
[net_1,tr]=train(net_1,Pn,Tn);
%  对 BP 网络进行仿真
A = sim(net_1,Pn);
%  计算仿真误差 
E = Tn - A

归一化以后训练曲线还是在10的0次方下方呈直线,将隐层改为一层训练曲线仍为直线,位置不变

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值