一个BP的完整代码实现(供参考与收藏)

原文来自 老饼玩转-BP神经网络icon-default.png?t=N7T8http://httsp://www.bbbdata.com/nn


目录

一、代码思路简介

二、主体代码

三、附加代码:表达式打印


本文展示一个完整的BP神经网络训练例子,包含归一化、训练与测试数据分割、BP网络训练、训练结果与测试结果展示,和最后提取模型的数学表达式共6个完整步骤(使用matlab2014b)。
作为一个完整的base Demo供参考和学习。


一、代码思路简介

本例从 \text{y} = 10*\sin(x_1)+0.2*x_2^2  中采取100个样本建立BP神经网络,然后与原函数进行比较。

步骤包括

(1)数据生成
(2)数据归一化
(3)训练测试数据分割
(4)网络训练
(5)展示训练结果
(6)泛化检验-测试数据的测试结果
(7)模型的使用
(8)提取模型的表达式
(9)模型表达式的反归一化
附加:模型表达式的打印。


运行结果如下

训练得到的模型表达式

13.8247*tansig(-0.94451*x1+0.33945*x2+2.1889)+18.6309*tansig(0.38004*x1+0.38706*x2+0.095989)-15.5021*tansig(0.7589*x1-0.06713*x2+2.0389)+1.6125

二、主体代码

clear all;close all ;
%------------------原始数据-----------------------------------
x1 = linspace(-3,3,100);     % 在[-3,3]之间线性生成100个数据
x2 = linspace(-2,1.5,100);   % 在[-2,1.5]之间线性生成100个数据
y = 10*sin(x1)+0.2*x2.*x2;   % 生成y

inputData  = [x1;x2];        % 将x1,x2作为输入数据
outputData = y;              % 将y作为输出数据

%--------------数据预处理:归一化-------------------------------
%由于有归一化,必须先将归一化信息抓取出来
iMax = max(inputData,[],2);
iMin = min(inputData,[],2);
oMax = max(outputData,[],2);
oMin = min(outputData,[],2);

normInputData=2*(inputData -repmat(iMin,1,size(inputData,2)))./repmat(iMax-iMin,1,size(inputData,2)) -1;
normOutPutData=2*(outputData -repmat(oMin,1,size(outputData,2)))./repmat(oMax-oMin,1,size(outputData,2)) -1;

%---------------数据预处理:预留检验数据----------------------------------
randIndex  = randperm(100);
trainIndex = sort(randIndex(1:80));                 % 随机选出80个数据作为训练数据(这里先选出数据的序号)
testIndex  = sort(randIndex(81:100));               % 将剩下的20个数据作为检验数据(这里先选出数据的序号)

inputData_train  = normInputData(:,trainIndex);     % 根据序号选出80个用于训练的输入
inputData_test   = normInputData(:,testIndex);      % 根据序号选出20个用于检验的输入
outputData_train = normOutPutData(:,trainIndex);    % 根据序号选出80个用于训练的输出
outputData_test  = normOutPutData(:,testIndex);     % 根据序号选出20个用于检验的输出

%----------------网络训练 -----------------------------------------------
%使用用输入输出数据(inputData_train、outputData_train)建立网络,隐节点个数设为3.其中输入层到隐层、隐层到输出层的节点分别为tansig和purelin,使用trainlm方法训练。
net = newff(inputData_train,outputData_train,3,{'tansig','purelin'},'trainlm');

%设置一些常用参数
net.trainparam.goal = 0.00001;    % 训练目标:均方误差低于0.0001
net.trainparam.show = 400;        % 每训练400次展示一次结果
net.trainparam.epochs = 15000;    % 最大训练次数:15000.

[net,tr] = train(net,inputData_train,outputData_train);  % 调用matlab神经网络工具箱自带的train函数训练网络

%----------训练数据的拟合效果-----------------------------
figure;
%训练数据的拟合效果
simout_train = sim(net,inputData_train);
subplot(2,1,1);
title('训练数据的拟合效果')
hold on
t=1:length(simout_train);
plot(t,outputData_train,t,simout_train,'r')%画图,对比原来的y和网络预测的y

%检验数据的拟合效果
simout_test = sim(net,inputData_test);
subplot(2,1,2);
title('未训练数据的拟合效果')
hold on

t=1:length(simout_test);
plot(t,outputData_test,t,simout_test,'r')%画图,对比原来的y和网络预测的y

%-----------------------真正使用时的流程--------------------
X= [-2.9;-1.9];                             % 要预测的X
normX=2*(X -iMin)./(iMax-iMin) -1;          % 对X归一化
normSimY = sim(net,normX);                  % 用网络预测
simy = (normSimY+1).*(oMax-oMin)./2 + oMin; % 对结果反归一

%----------------------提取表达式(对应归一化数据)------------------------------------
%提取权重
w12 = net.iw{1,1};                          % 第1层(输入层)到第2层(隐层)的权值
b2 = net.b{1};                              % 第2层(隐层)的神经元阈值

w23 = net.lw{2,1};                          % 第2层(输入层)到第3层(输出层)的权值
b3 = net.b{2};                              % 第3层(输出层)的神经元阈值

%对应的数学表达式:
sim_y_norm = w23 *tansig( w12 *inputData + repmat(b2,1,size(inputData,2))) + repmat(b3,1,size(inputData,2));

%----------------------提取表达式(对应原始数据)------------------------------------
%权重反归一化
W12 = w12 * 2 ./repmat(iMax' -iMin',size(w12,1),1);
B2  = -w12* (2*iMin ./(iMax - iMin) + 1) + b2;

W23 = w23 .*repmat((oMax -oMin),1,size(w23,2))/2;
B3  = (oMax -oMin) .*b3 /2 + (oMax -oMin)/2 + oMin;

%最终的数学表达式:
sim_y = W23 *tansig( W12 *inputData + repmat(B2,1,size(inputData,2))) + repmat(B3,1,size(inputData,2));

%数学表达式与工具箱预测结果的比较
net_sim_y = sim(net,normInputData);
net_sim_y=(net_sim_y+1).*(oMax-oMin)./2 + oMin; % 对结果反归一
formula_err=max(max(abs(net_sim_y - sim_y)));

三、附加代码:表达式打印

加入以下一段,可以打印表达式(仅为参考DEMO,非通用函数)

[hn,xn] = size(W12);%隐节点个数,输入个数
f_str = '';
for i=1:hn
    cur_tansig = [num2str(W23(i)),'*tansig('];
    if(i>1 && W23(i)>0)
        cur_tansig =['+',cur_tansig] ;
    endfor j = 1: xn
        sign_str = '';
        if(j>1 && W12(i,j)>0 )
            sign_str='+';
        end
        cur_tansig = [cur_tansig,sign_str,num2str(W12(i,j)),'*x',num2str(j)];
    end
    sign_str = '';
    if( B2(i)>0 )
        sign_str='+';
    end
    cur_tansig = [cur_tansig,sign_str,num2str(B2(i)),')'];
    f_str= [f_str,cur_tansig];
end
sign_str = '';
if( B3>0 )sign_str='+';
end
f_str=[f_str,sign_str,num2str(B3)]

运行结果:

13.8247*tansig(-0.94451*x1+0.33945*x2+2.1889)+18.6309*tansig(0.38004*x1+0.38706*x2+0.095989)-15.5021*tansig(0.7589*x1-0.06713*x2+2.0389)+1.6125

 相关文章

​《BP神经网络梯度推导》

​​​​​​《BP神经网络提取的数学表达式》

《一个BP的完整建模流程》

  • 1
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

老饼讲解-BP神经网络

请老饼喝杯咖啡

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值