【数学建模】BP神经网络算法模型

模型的训练

BP网络的训练就是通过应用误差反传原理不断调整网络权值使网络模型输出值与已知的训练样本输出值之间的误差平方和达到最小或小于某一期望值。

训练模型

训练方法训练函数
梯度下降法traingd
有动量的梯度下降法traingdm
自适应lr梯度下降法traingda
自适应lr动量梯度下降法traingdx
弹性梯度下降法trainrp
Fletcher-Reeves共轭梯度法traincgf
Ploak-Ribiere共轭梯度法traincgp
Powell-Beale共轭梯度法traincgb
量化共轭梯度法trainscg
拟牛顿算法trainbfg
一步正割算法trainoss
Levenberg-Marquardttrainlm

BP网络的构建

  1. 生成BP网络
net=newff(PR,[S1 S2 ... SNl],{TF1 TF2 ... TFNl},BTF)

PR: 由R维的输入样本最小最大值构成的R*2维矩阵
[S1 S2 ... SNl]:各层的神经元个数
{TF1 TF2 ... TFNl}:各层的神经元传递函数

  1. 网络训练
net=train(net,P,T)

P:标准输入
T:标准输出

  1. 网络仿真
Y2=sim(net,P2)

代码示例

pn=p1';tn=t1'; 
[m,n]=size(t);
 [pn,minp,maxp,tn,mint,maxt]=premnmx(p,t);%归一化 
 net=newff(pn,[5,1],{'tansig','purelin'},'traingd'); %设置网络,建立相应的BP网络,底层神经元个数5,输出神经元个数1,输入到隐藏的激活函数tansig,隐藏到输入到purelin,训练函数traingd
net.trainParam.show=50; % 训练网络,每隔50步展现下算法
net.trainParam.lr=0.01; %学习率0.01  
net.trainParam.epochs=1000; %训练1000步(训练停止方式:epochs和goal)
net.trainParam.goal=1e-5;
[net,tr]=train(net ,pn,tn);%得到结果              
anewn=sim(net,ps);      %对BP网络进行仿真
figure;hold on
plot(anewn,'b',tn,'r');
wucha=sum(abs(b-r))/n;%误差输出

  %traingd
  clear;
  clc;
  P=[-1 -1 2 2 4;0 5 0 5 7];%输入
  T=[-1 -1 1 1 -1];%输出  输入到矩阵——行代表因子 列代表样本(数量)
  %利用minmax函数求输入样本范围
  net = newff(minmax(P),[7,1],{'tansig','purelin'},'trainlm');
  net.trainParam.show=50;%
  net.trainParam.lr=0.05;
  net.trainParam.epochs=1000;
  net.trainParam.goal=1e-5;
[net,tr]=train(net,P,T);
net.iw{1,1}%隐层权值
net.b{1}%隐层阈值
net.lw{2,1}%输出层权值
net.b{2}%输出层阈值
y3=sim(net,P);
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Lydia.na

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值