如何利用matlab做BP神经网络分析(包括利用matlab神经网络工具箱)

如何利用matlab做BP神经网络分析(包括利用matlab神经网络工具箱)

转载:https://blog.csdn.net/xgxyxs/article/details/53265318
最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是自己在结合实际的工作内容,发现这几种模型预测的精度不是很高,于是再在网上进行搜索,发现神经网络模型可以来预测,并且有很多是结合时间序列或者SVM(支持向量机)等组合模型来进行预测,本文结合实际数据,选取了常用的BP神经网络算法,其算法原理,因网上一大堆,所以在此不必一一展示,并参考了bp神经网络进行交通预测的Matlab源代码这篇博文,运用matlab 2016a,给出了下面的代码,并最终进行了预测


 
 
  1. clc
  2. clear all
  3. close all
  4. %bp 神经网络的预测代码
  5. %载入输出和输入数据
  6. load C:\Users\amzon\Desktop\p.txt;
  7. load C:\Users\amzon\Desktop\t.txt;
  8. %保存数据到matlab的工作路径里面
  9. save p.mat;
  10. save t.mat;%注意t必须为行向量
  11. %赋值给输出p和输入t
  12. p=p;
  13. t=t;
  14. %数据的归一化处理,利用mapminmax函数,使数值归一化到[- 1.1]之间
  15. %该函数使用方法如下:[ y,ps] =mapminmax( x,ymin,ymax), x需归化的数据输入,
  16. %ymin,ymax为需归化到的范围,不填默认为归化到[- 1, 1]
  17. %返回归化后的值 y,以及参数ps,ps在结果反归一化中,需要调用
  18. [p1,ps]=mapminmax(p);
  19. [t1,ts]=mapminmax(t);
  20. %确定训练数据,测试数据,一般是随机的从样本中选取 70%的数据作为训练数据
  21. %15%的数据作为测试数据,一般是使用函数dividerand,其一般的使用方法如下:
  22. %[trainInd,valInd,testInd] = dividerand(Q,trainRatio,valRatio,testRatio)
  23. [trainsample.p,valsample.p,testsample.p] =dividerand(p, 0. 7, 0. 15, 0. 15);
  24. [trainsample.t,valsample.t,testsample.t] =dividerand(t, 0. 7, 0. 15, 0. 15);
  25. %建立反向传播算法的BP神经网络,使用newff函数,其一般的使用方法如下
  26. %net = newff(minmax(p),[隐层的神经元的个数,输出层的神经元的个数],{隐层神经元的传输函数,输出层的传输函数}, '反向传播的训练函数'),其中p为输入数据,t为输出数据
  27. %tf为神经网络的传输函数,默认为 'tansig'函数为隐层的传输函数,
  28. %purelin函数为输出层的传输函数
  29. %一般在这里还有其他的传输的函数一般的如下,如果预测出来的效果不是很好,可以调节
  30. %TF1 = 'tansig';TF2 = 'logsig';
  31. %TF1 = 'logsig';TF2 = 'purelin';
  32. %TF1 = 'logsig';TF2 = 'logsig';
  33. %TF1 = 'purelin';TF2 = 'purelin';
  34. TF1= 'tansig';TF2= 'purelin';
  35. net=newff(minmax(p),[ 10, 1],{TF1 TF2}, 'traingdm');%网络创建
  36. %网络参数的设置
  37. net.trainParam.epochs= 10000;%训练次数设置
  38. net.trainParam.goal= 1e- 7;%训练目标设置
  39. net.trainParam.lr= 0. 01;%学习率设置,应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产生动荡,而致使无法收敛
  40. net.trainParam.mc= 0. 9;%动量因子的设置,默认为 0. 9
  41. net.trainParam.show= 25;%显示的间隔次数
  42. % 指定训练参数
  43. % net.trainFcn = 'traingd'; % 梯度下降算法
  44. % net.trainFcn = 'traingdm'; % 动量梯度下降算法
  45. % net.trainFcn = 'traingda'; % 变学习率梯度下降算法
  46. % net.trainFcn = 'traingdx'; % 变学习率动量梯度下降算法
  47. % (大型网络的首选算法)
  48. % net.trainFcn = 'trainrp'; % RPROP(弹性BP)算法,内存需求最小
  49. % 共轭梯度算法
  50. % net.trainFcn = 'traincgf'; %Fletcher-Reeves修正算法
  51. % net.trainFcn = 'traincgp'; %Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大
  52. % net.trainFcn = 'traincgb'; % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大
  53. % (大型网络的首选算法)
  54. %net.trainFcn = 'trainscg'; % ScaledConjugate Gradient算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多
  55. % net.trainFcn = 'trainbfg'; %Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快
  56. % net.trainFcn = 'trainoss'; % OneStep Secant Algorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大
  57. % (中型网络的首选算法)
  58. %net.trainFcn = 'trainlm'; %Levenberg-Marquardt算法,内存需求最大,收敛速度最快
  59. % net.trainFcn = 'trainbr'; % 贝叶斯正则化算法
  60. % 有代表性的五种算法为: 'traingdx', 'trainrp', 'trainscg', 'trainoss', 'trainlm'
  61. %在这里一般是选取 'trainlm'函数来训练,其算对对应的是Levenberg-Marquardt算法
  62. net.trainFcn= 'trainlm';
  63. [net, tr]=train(net,trainsample.p,trainsample.t);
  64. %计算仿真,其一般用sim函数
  65. [normtrainoutput,trainPerf]=sim(net,trainsample.p,[],[],trainsample.t);%训练的数据,根据BP得到的结果
  66. [normvalidateoutput,validatePerf]=sim(net,valsample.p,[],[],valsample.t);%验证的数据,经BP得到的结果
  67. [normtestoutput,testPerf]=sim(net,testsample.p,[],[],testsample.t);%测试数据,经BP得到的结果
  68. %将所得的结果进行反归一化,得到其拟合的数据
  69. trainoutput=mapminmax( 'reverse',normtrainoutput,ts);
  70. validateoutput=mapminmax( 'reverse',normvalidateoutput,ts);
  71. testoutput=mapminmax( 'reverse',normtestoutput,ts);
  72. %正常输入的数据的反归一化的处理,得到其正式值
  73. trainvalue=mapminmax( 'reverse',trainsample.t,ts);%正常的验证数据
  74. validatevalue=mapminmax( 'reverse',valsample.t,ts);%正常的验证的数据
  75. testvalue=mapminmax( 'reverse',testsample.t,ts);%正常的测试数据
  76. %做预测,输入要预测的数据pnew
  77. pnew=[ 313, 256, 239] ';
  78. pnewn=mapminmax(pnew);
  79. anewn=sim(net,pnewn);
  80. anew=mapminmax(' reverse ',anewn,ts);
  81. %绝对误差的计算
  82. errors=trainvalue-trainoutput;
  83. %plotregression拟合图
  84. figure,plotregression(trainvalue,trainoutput)
  85. %误差图
  86. figure,plot(1:length(errors),errors,'-b ')
  87. title('误差变化图 ')
  88. %误差值的正态性的检验
  89. figure,hist(errors);%频数直方图
  90. figure,normplot(errors);%Q-Q图
  91. [muhat,sigmahat,muci,sigmaci]=normfit(errors);%参数估计 均值,方差,均值的0.95置信区间,方差的0.95置信区间
  92. [h1,sig,ci]= ttest(errors,muhat);%假设检验
  93. figure, ploterrcorr(errors);%绘制误差的自相关图
  94. figure, parcorr(errors);%绘制偏相关图

运行之后的,结果如下:

BP神经网络的结果分析图

训练数据的梯度和均方误差之间的关系图

验证数据的梯度与学习次数

残差的正态的检验图(Q-Q图)

 

 

在网上,发现可以通过神经网络工具箱这个GUI界面来创建神经网络,其一般的操作步骤如下:

1:在输入命令里面输入nntool命令,或者在应用程序这个选项下找到Netrual Net Fitting 这个应用程序,点击打开,就能看见如下界面

 

 

 

2:输入数据和输出数据的导入(在本文中选取了matlab自带的案例数据)


3:随机选择三种类型的数据所占的样本量的比例,一般选取默认即可



4:隐层神经元的确定
                                                                             


5:训练算法的选取,一般是选择默认即可,选择完成后点击<train>按钮即可运行程序




6:根据得到的结果,一般是MSE的值越小,R值越接近1,其训练的效果比较,并第二张图给出了神经网络的各参数的设置以及其最终的结果,其拟合图R越接近1,模型拟合的更好








最终的结果图

7:如果所得到的模型不能满足你的需求,则需重复上述的步骤直至能够得到你想要的精确度

8:将最终的得到的各种数据以及其拟合值进行保存,然后查看,就可以得到所要的拟合值



MATLAB 与神经网络相关的函数总结如下:


 
 
  1.  图形用户界面功能
  2.     nnstart - 神经网络启动GUI 
  3.     nctool - 神经网络分类工具 
  4.     nftool - 神经网络的拟合工具 
  5.     nntraintool - 神经网络的训练工具 
  6.     nprtool - 神经网络模式识别工具 
  7.     ntstool - NFTool神经网络时间序列的工具 
  8.     nntool - 神经网络工具箱的图形用户界面。 
  9.     查看 - 查看一个神经网络。 
  10.   
  11.   网络的建立功能
  12.     cascadeforwardnet - 串级,前馈神经网络。 
  13.     competlayer - 竞争神经层。 
  14.     distdelaynet - 分布时滞的神经网络。 
  15.     elmannet - Elman神经网络。 
  16.     feedforwardnet - 前馈神经网络。 
  17.     fitnet - 函数拟合神经网络。 
  18.     layrecnet - 分层递归神经网络。 
  19.     linearlayer - 线性神经层。 
  20.     lvqnet - 学习矢量量化(LVQ)神经网络。 
  21.     narnet - 非线性自结合的时间序列网络。 
  22.     narxnet - 非线性自结合的时间序列与外部输入网络。 
  23.     newgrnn - 设计一个广义回归神经网络。 
  24.     newhop - 建立经常性的Hopfield网络。 
  25.     newlind - 设计一个线性层。 
  26.     newpnn - 设计概率神经网络。 
  27.     newrb - 径向基网络设计。 
  28.     newrbe - 设计一个确切的径向基网络。 
  29.     patternnet - 神经网络模式识别。 
  30.     感知 - 感知。 
  31.     selforgmap - 自组织特征映射。 
  32.     timedelaynet - 时滞神经网络。 
  33.   
  34.   利用网络
  35.     网络 - 创建一个自定义神经网络。 
  36.     SIM卡 - 模拟一个神经网络。 
  37.     初始化 - 初始化一个神经网络。 
  38.     适应 - 允许一个神经网络来适应。 
  39.     火车 - 火车的神经网络。 
  40.     DISP键 - 显示一个神经网络的属性。 
  41.     显示 - 显示的名称和神经网络属性 
  42.     adddelay - 添加延迟神经网络的反应。 
  43.     closeloop - 神经网络的开放反馈转换到关闭反馈回路。 
  44.     formwb - 表格偏见和成单个向量的权重。 
  45.     getwb - 将它作为一个单一向量中的所有网络权值和偏差。 
  46.     noloop - 删除神经网络的开放和关闭反馈回路。 
  47.     开环 - 转换神经网络反馈,打开封闭的反馈循环。 
  48.     removedelay - 删除延迟神经网络的反应。 
  49.     separatewb - 独立的偏见和重量/偏置向量的权重。 
  50.     setwb - 将所有与单个矢量网络权值和偏差。 
  51.   
  52.   Simulink的支持
  53.     gensim - 生成Simulink模块来模拟神经网络。 
  54.     setsiminit - 集神经网络的Simulink模块的初始条件 
  55.     getsiminit - 获取神经网络Simulink模块的初始条件 
  56.     神经元 - 神经网络Simulink的模块库。 
  57.  
  58.     trainb - 批具有重量与偏见学习规则的培训。 
  59.     trainbfg - 的BFGS拟牛顿倒传递。 
  60.     trainbr - 贝叶斯规则的BP算法。 
  61.     trainbu - 与重量与偏见一批无监督学习规则的培训。 
  62.     trainbuwb - 与体重无监督学习规则与偏见一批培训。 
  63.     trainc - 循环顺序重量/偏见的培训。 
  64.     traincgb - 共轭鲍威尔比尔重新启动梯度反向传播。 
  65.     traincgf - 共轭弗莱彻-里夫斯更新梯度反向传播。 
  66.     traincgp - 共轭波拉克- Ribiere更新梯度反向传播。 
  67.     traingd - 梯度下降反向传播。 
  68.     traingda - 具有自适应LR的反向传播梯度下降。 
  69.     traingdm - 与动量梯度下降。 
  70.     traingdx - 梯度下降瓦特/惯性与自适应LR的反向传播。 
  71.     trainlm - 采用Levenberg -马奎德倒传递。 
  72.     trainoss - 一步割线倒传递。 
  73.     trainr - 随机重量/偏见的培训。 
  74.     trainrp - RPROP反向传播。 
  75.     trainru - 无监督随机重量/偏见的培训。 
  76.     火车 - 顺序重量/偏见的培训。 
  77.     trainscg - 规模化共轭梯度BP算法。 
  78.   
  79.   绘图功能
  80.     plotconfusion - 图分类混淆矩阵。 
  81.     ploterrcorr - 误差自相关时间序列图。 
  82.     ploterrhist - 绘制误差直方图。 
  83.     plotfit - 绘图功能适合。 
  84.     plotinerrcorr - 图输入错误的时间序列的互相关。 
  85.     plotperform - 小区网络性能。 
  86.     plotregression - 线性回归情节。 
  87.     plotresponse - 动态网络图的时间序列响应。 
  88.     plotroc - 绘制受试者工作特征。 
  89.     plotsomhits - 小区自组织图来样打。 
  90.     plotsomnc - 小区自组织映射邻居的连接。 
  91.     plotsomnd - 小区自组织映射邻居的距离。 
  92.     plotsomplanes - 小区自组织映射重量的飞机。 
  93.     plotsompos - 小区自组织映射重量立场。 
  94.     plotsomtop - 小区自组织映射的拓扑结构。 
  95.     plottrainstate - 情节训练状态值。 
  96.     plotwb - 图寒春重量和偏差值图。 
  97.   
  98.   列出其他神经网络实现的功能
  99.     nnadapt - 适应职能。 
  100.     nnderivati​​ve - 衍生功能。 
  101.     nndistance - 距离函数。 
  102.     nndivision - 除功能。 
  103.     nninitlayer - 初始化层功能。 
  104.     nninitnetwork - 初始化网络功能。 
  105.     nninitweight - 初始化权函数。 
  106.     nnlearn - 学习功能。 
  107.     nnnetinput - 净输入功能。 
  108.     nnperformance - 性能的功能。 
  109.     nnprocess - 处理功能。 
  110.     nnsearch - 线搜索功能。 
  111.     nntopology - 拓扑结构的功能。 
  112.     nntransfer - 传递函数。 
  113.     nnweight - 重量的功能。 
  114.     nndemos - 神经网络工具箱的示威。 
  115.     nndatasets - 神经网络工具箱的数据集。 
  116.     nntextdemos - 神经网络设计教科书的示威。 
  117.     nntextbook - 神经网络设计教科书的资讯。 

 

 

Save

 

  • 7
    点赞
  • 45
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值