基于粒子群优化算法的BP神经网络预测模型(Matlab代码实现)

 

目录

1 概述

2 粒子群优化算法

3 BP神经网络

4 PSO优化 BP网络算法

5 运行结果

6 参考文献 

7 Matlab代码实现



1 概述

在工程应用中经常会遇到一些复杂的非线性系统,这些系统的状态方程复杂,难以准确的用数学方法建模,而BP神经网络实质上实现了一个从输入到输出的映射功能,数学理论证明三层的神经网络就能够以任意精度逼近任何非线性连续函数,具有非常强的非线性映射能力,使得其特别适合于求解内部机制复杂的问题.该方法是把未知系统看成是一个黑箱,首先用系统输入输出数据训练BP网络,使得网络能够表达该未知非线性函数,然后用训练好的网络预测系统输出".但是传统的BP网络算法具有收敛速度慢、容易陷入局部极值和误差比较大等缺点,因此优化这种网络成了必要.粒子群优化算法作为一种智能算法,是一种仿生算法和随机搜索算法,参数少,寻优能力较好,将其和BP网络结合起来,优化BP网络的权值和阈值,弥补了BP网络的一些缺点,提高了BP网络拟合函数的能力.

2 粒子群优化算法

粒子群优化算法是一种群体智能的优化算法,它是源于对鸟类捕食行为的研究,鸟类捕食时,每只鸟找到食物最简单最有效的方法就是搜寻当前距离食物最近的鸟的周围区域. PSO算法是从这种生物种群行为特征中得到启发并求解优化问题的.算法中每个粒子都代表问题的一个潜在解,每个粒子对应一个由适应度函数决定的适应度值,粒子的速度决定了其移动的方向和距离,速度随自身及其他粒子的移动经验进行动态调整,从而实现个体在可解空间中的寻优.

粒子群算法(带约束处理)——Python&Matlab实现

3 BP神经网络

BP神经网络是一种多层前馈神经网络,拓扑结构包括:输入层、隐层、输出层,它的主要特点是信号前向传递,误差反向传播.在前向传递中,输人信号从输人层经隐含层逐层处理,直至输出层,每--层的神经元状态只影响下一层神经元状态.如果输出层得不到期望输出,则转入反向传播,根据预测误差调整网络权值和阈值,从而使网络预测输出不断逼近期望输出. BP网络训练的步骤如下:

4 PSO优化 BP网络算法

BP网络的非线性泛化能力很强,但是其收敛速度慢,容易陷人局部极值,误差比较大,为了弥补BP网络的这种缺点,将PSO算法与BP网络结合,用PSO算法优化BP网络的权值和阈值,提高了网络的非线性拟合能力. PSO-BP算法如下:
(1)初始化网络的训练样本数m,测试样本数n ,隐层节点数hidden _.num,粒子群数目particle_num,迭代次数epoch ,惯性权重w ,加速度因子c,C2.
(2)根据目标函数获得训练样本和测试样本的输人和理想输出,并画出理想曲线和测试样本点.(3)随机初始化粒子群的位置和速度,并计算各粒子的适应度值.
(4)根据上述公式更新各个粒子的位置和速度,并记录每个粒子的最佳位置.(5)记录全局最优位置.
(6)计算测试样本的输出,并画出预测曲线及误差曲线.

部分代码:

%% 清空环境变量
tic
clc
clear
close all
format compact
%% 导入数据
load data1
input=In';
output=U3;
%%
% 随机生成训练集、测试集
rand('seed',0)

k = randperm(size(input,1));
m=7100;
P_train=input(k(1:m),:)';
T_train=output(k(1:m));

P_test=input(k(m+1:end),:)';
T_test=output(k(m+1:end));

%% 归一化
% 训练集
[Pn_train,inputps] = mapminmax(P_train,-1,1);
Pn_test = mapminmax('apply',P_test,inputps);
% 测试集
[Tn_train,outputps] = mapminmax(T_train,-1,1);
Tn_test = mapminmax('apply',T_test,outputps);

%% 节点个数
inputnum=size(Pn_train,1);
hiddennum=5;
outputnum=1;
%% 没有优化的bp
net=newff(Pn_train,Tn_train,hiddennum);
net.trainParam.epochs=200;
net.trainParam.lr=0.1;
net.trainParam.goal=0.00000001;
net.trainParam.max_fail = 200;

%网络训练
[net,per2]=train(net,Pn_train,Tn_train);
an=sim(net,Pn_test);
error=an-Tn_test;

test_simu=mapminmax('reverse',an,outputps);
disp('优化前')
E1=norm(error);
E2=mse(error)
MAPE=mean(abs(error)./Tn_test);

figure
plot(test_simu)
hold on
plot(T_test)
legend('实际输出','期望输出')

%% 粒子群优化bp


% [bestchrom,trace]=psoforbp(inputnum,hiddennum,outputnum,Pn_train,Tn_train);%粒子群算法
% x=bestchrom;
% save result x
load result%直接调用训练好的
% 用pso优化的BP网络进行值预测
w1=x(1:inputnum*hiddennum);
B1=x(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum);
w2=x(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum);
B2=x(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum);

net.iw{1,1}=reshape(w1,hiddennum,inputnum);
net.lw{2,1}=reshape(w2,outputnum,hiddennum);
net.b{1}=reshape(B1,hiddennum,1);
net.b{2}=B2';

%% BP网络训练
%网络进化参数
net.trainParam.epochs=200;
net.trainParam.lr=0.1;
net.trainParam.goal=0.00000001;
net.trainParam.max_fail = 200;

%网络训练
[net,per2]=train(net,Pn_train,Tn_train);

%% BP网络预测
%数据归一化
an=sim(net,Pn_test);
error=an-Tn_test;

test_simu=mapminmax('reverse',an,outputps);
disp('优化后')
E1=norm(error);
E2=mse(error)
MAPE=mean(abs(error)./Tn_test);
toc
%%
figure
plot(test_simu)
hold on
plot(T_test)
legend('实际输出','期望输出')

5 运行结果


 

 

 

 

6 参考文献 

部分理论引用网络文献,如有侵权请联系删除。

[1]郝海霞.用粒子群算法优化BP神经网络进行函数拟合[J].山西师范大学学报(自然科学版),2017,31(01):14-16.DOI:10.16207/j.cnki.1009-4490.2017.01.004.

7 Matlab代码实现

回复关键字

  • 0
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
This add-in to the PSO Research toolbox (Evers 2009) aims to allow an artificial neural network (ANN or simply NN) to be trained using the Particle Swarm Optimization (PSO) technique (Kennedy, Eberhart et al. 2001). This add-in acts like a bridge or interface between MATLAB’s NN toolbox and the PSO Research Toolbox. In this way, MATLAB’s NN functions can call the NN add-in, which in turn calls the PSO Research toolbox for NN training. This approach to training a NN by PSO treats each PSO particle as one possible solution of weight and bias combinations for the NN (Settles and Rylander ; Rui Mendes 2002; Venayagamoorthy 2003). The PSO particles therefore move about in the search space aiming to minimise the output of the NN performance function. The author acknowledges that there already exists code for PSO training of a NN (Birge 2005), however that code was found to work only with MATLAB version 2005 and older. This NN-addin works with newer versions of MATLAB till versions 2010a. HELPFUL LINKS: 1. This NN add-in only works when used with the PSORT found at, http://www.mathworks.com/matlabcentral/fileexchange/28291-particle-swarm-optimization-research-toolbox. 2. The author acknowledges the modification of code used in an old PSO toolbox for NN training found at http://www.mathworks.com.au/matlabcentral/fileexchange/7506. 3. User support and contact information for the author of this NN add-in can be found at http://www.tricia-rambharose.com/ ACKNOWLEDGEMENTS The author acknowledges the support of advisors and fellow researchers who supported in various ways to better her understanding of PSO and NN which lead to the creation of this add-in for PSO training of NNs. The acknowledged are as follows: * Dr. Alexander Nikov - Senior lecturer and Head of Usaility Lab, UWI, St. Augustine, Trinidad, W.I. http://www2.sta.uwi.edu/~anikov/ * Dr. Sabine Graf - Assistant Professor, Athabasca University, Alberta, Canada. http://scis.athabascau.ca/scis/staff/faculty.jsp?id=sabineg * Dr. Kinshuk - Professor, Athabasca University, Alberta, Canada. http://scis.athabascau.ca/scis/staff/faculty.jsp?id=kinshuk * Members of the iCore group at Athabasca University, Edmonton, Alberta, Canada.
以下是基于粒子群算法优化BP神经网络Matlab 代码: ``` % 首先,我们需要准备一些数据用于训练和测试模型。这里以鸢尾花数据集为例。 % 加载数据 load fisheriris % 将数据划分为训练集和测试集 train_data = [meas(1:40,:); meas(51:90,:); meas(101:140,:)]; test_data = [meas(41:50,:); meas(91:100,:); meas(141:150,:)]; % 将类别标签转换为独热编码 train_label = zeros(size(train_data,1),3); test_label = zeros(size(test_data,1),3); for i = 1:size(train_data,1) if species(i) == 'setosa' train_label(i,:) = [1 0 0]; elseif species(i) == 'versicolor' train_label(i,:) = [0 1 0]; else train_label(i,:) = [0 0 1]; end end for i = 1:size(test_data,1) if species(i+40) == 'setosa' test_label(i,:) = [1 0 0]; elseif species(i+40) == 'versicolor' test_label(i,:) = [0 1 0]; else test_label(i,:) = [0 0 1]; end end % 接着,我们定义神经网络模型和粒子群算法的参数。 % 定义BP神经网络的结构和超参数 input_size = size(train_data,2); hidden_size = 10; output_size = size(train_label,2); learning_rate = 0.1; epoch_num = 1000; % 定义粒子群算法的参数 particle_num = 20; max_iter = 100; w = 0.8; c1 = 1.5; c2 = 1.5; % 然后,我们初始化粒子的位置和速度,并定义损失函数。 % 初始化粒子的位置和速度 particle_position = rand(hidden_size*(input_size+1)+output_size*(hidden_size+1), particle_num); particle_velocity = zeros(size(particle_position)); % 定义损失函数 loss_func = @(w) bpnn_lossfunction(w, train_data, train_label, input_size, hidden_size, output_size, learning_rate); % 接下来,我们开始迭代优化。 % 迭代优化 global_best_position = particle_position(:,1); global_best_loss = loss_func(global_best_position); for iter = 1:max_iter for i = 1:particle_num % 更新速度和位置 particle_velocity(:,i) = w*particle_velocity(:,i) + c1*rand(size(particle_position,1),1).*(particle_best_position(:,i)-particle_position(:,i)) + c2*rand(size(particle_position,1),1).*(global_best_position-particle_position(:,i)); particle_position(:,i) = particle_position(:,i) + particle_velocity(:,i); % 计算当前粒子的损失函数值,并更新其最优位置 current_loss = loss_func(particle_position(:,i)); if current_loss < particle_best_loss(i) particle_best_position(:,i) = particle_position(:,i); particle_best_loss(i) = current_loss; end % 更新全局最优位置 if current_loss < global_best_loss global_best_position = particle_position(:,i); global_best_loss = current_loss; end end end % 最后,我们用测试集评估模型的性能。 % 用测试集评估模型性能 test_pred = bpnn_predict(global_best_position, test_data, input_size, hidden_size, output_size); test_acc = sum(sum(test_pred == test_label))/numel(test_label); disp(['Test accuracy: ', num2str(test_acc)]); % 下面是损失函数、预测函数和反向传播函数的代码。 % 损失函数 function loss = bpnn_lossfunction(w, data, label, input_size, hidden_size, output_size, learning_rate) % 将权重矩阵解开为输入层到隐层和隐层到输出层两部分 w1 = reshape(w(1:hidden_size*(input_size+1)), hidden_size, input_size+1); w2 = reshape(w(hidden_size*(input_size+1)+1:end), output_size, hidden_size+1); % 前向传播,计算预测值和损失函数 input_data = [data, ones(size(data,1),1)]; hidden_output = sigmoid(input_data*w1'); hidden_output = [hidden_output, ones(size(hidden_output,1),1)]; output = sigmoid(hidden_output*w2'); loss = -sum(sum(label.*log(output) + (1-label).*log(1-output)))/size(data,1); % 反向传播,更新权重矩阵 output_delta = output - label; hidden_delta = (output_delta*w2(:,1:end-1)).*hidden_output(:,1:end-1).*(1-hidden_output(:,1:end-1)); w2_grad = output_delta'*hidden_output/size(data,1); w1_grad = hidden_delta'*input_data/size(data,1); w2 = w2 - learning_rate*w2_grad; w1 = w1 - learning_rate*w1_grad; % 将权重矩阵重新组合并展开 loss = loss + 0.5*learning_rate*(sum(sum(w1.^2)) + sum(sum(w2.^2))); w = [w1(:); w2(:)]; end % 预测函数 function pred = bpnn_predict(w, data, input_size, hidden_size, output_size) % 将权重矩阵解开为输入层到隐层和隐层到输出层两部分 w1 = reshape(w(1:hidden_size*(input_size+1)), hidden_size, input_size+1); w2 = reshape(w(hidden_size*(input_size+1)+1:end), output_size, hidden_size+1); % 前向传播,得到预测值 input_data = [data, ones(size(data,1),1)]; hidden_output = sigmoid(input_data*w1'); hidden_output = [hidden_output, ones(size(hidden_output,1),1)]; output = sigmoid(hidden_output*w2'); [~, pred] = max(output,[],2); end % 反向传播函数 function [w1_grad, w2_grad] = bpnn_backprop(w1, w2, data, label, learning_rate) % 前向传播,计算预测值和损失函数 input_data = [data, ones(size(data,1),1)]; hidden_output = sigmoid(input_data*w1'); hidden_output = [hidden_output, ones(size(hidden_output,1),1)]; output = sigmoid(hidden_output*w2'); loss = -sum(sum(label.*log(output) + (1-label).*log(1-output)))/size(data,1); % 反向传播,更新权重矩阵 output_delta = output - label; hidden_delta = (output_delta*w2(:,1:end-1)).*hidden_output(:,1:end-1).*(1-hidden_output(:,1:end-1)); w2_grad = output_delta'*hidden_output/size(data,1); w1_grad = hidden_delta'*input_data/size(data,1); w2_grad = w2_grad + learning_rate*w2; w1_grad = w1_grad + learning_rate*w1; end % sigmoid 函数 function y = sigmoid(x) y = 1./(1+exp(-x)); end ``` 注意,在上面的代码中,我们使用了独热编码和交叉熵损失函数来处理多分类问题。如果你要处理二分类问题或回归问题,可以相应地调整代码

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值