基于粒子群优化算法的BP神经网络预测模型(Matlab代码实现)

 

目录

1 概述

2 粒子群优化算法

3 BP神经网络

4 PSO优化 BP网络算法

5 运行结果

6 参考文献 

7 Matlab代码实现


1 概述

在工程应用中经常会遇到一些复杂的非线性系统,这些系统的状态方程复杂,难以准确的用数学方法建模,而BP神经网络实质上实现了一个从输入到输出的映射功能,数学理论证明三层的神经网络就能够以任意精度逼近任何非线性连续函数,具有非常强的非线性映射能力,使得其特别适合于求解内部机制复杂的问题.该方法是把未知系统看成是一个黑箱,首先用系统输入输出数据训练BP网络,使得网络能够表达该未知非线性函数,然后用训练好的网络预测系统输出".但是传统的BP网络算法具有收敛速度慢、容易陷入局部极值和误差比较大等缺点,因此优化这种网络成了必要.粒子群优化算法作为一种智能算法,是一种仿生算法和随机搜索算法,参数少,寻优能力较好,将其和BP网络结合起来,优化BP网络的权值和阈值,弥补了BP网络的一些缺点,提高了BP网络拟合函数的能力.

2 粒子群优化算法

粒子群优化算法是一种群体智能的优化算法,它是源于对鸟类捕食行为的研究,鸟类捕食时,每只鸟找到食物最简单最有效的方法就是搜寻当前距离食物最近的鸟的周围区域. PSO算法是从这种生物种群行为特征中得到启发并求解优化问题的.算法中每个粒子都代表问题的一个潜在解,每个粒子对应一个由适应度函数决定的适应度值,粒子的速度决定了其移动的方向和距离,速度随自身及其他粒子的移动经验进行动态调整,从而实现个体在可解空间中的寻优.

粒子群算法(带约束处理)——Python&Matlab实现

3 BP神经网络

BP神经网络是一种多层前馈神经网络,拓扑结构包括:输入层、隐层、输出层,它的主要特点是信号前向传递,误差反向传播.在前向传递中,输人信号从输人层经隐含层逐层处理,直至输出层,每--层的神经元状态只影响下一层神经元状态.如果输出层得不到期望输出,则转入反向传播,根据预测误差调整网络权值和阈值,从而使网络预测输出不断逼近期望输出. BP网络训练的步骤如下:

4 PSO优化 BP网络算法

BP网络的非线性泛化能力很强,但是其收敛速度慢,容易陷人局部极值,误差比较大,为了弥补BP网络的这种缺点,将PSO算法与BP网络结合,用PSO算法优化BP网络的权值和阈值,提高了网络的非线性拟合能力. PSO-BP算法如下:
(1)初始化网络的训练样本数m,测试样本数n ,隐层节点数hidden _.num,粒子群数目particle_num,迭代次数epoch ,惯性权重w ,加速度因子c,C2.
(2)根据目标函数获得训练样本和测试样本的输人和理想输出,并画出理想曲线和测试样本点.(3)随机初始化粒子群的位置和速度,并计算各粒子的适应度值.
(4)根据上述公式更新各个粒子的位置和速度,并记录每个粒子的最佳位置.(5)记录全局最优位置.
(6)计算测试样本的输出,并画出预测曲线及误差曲线.

部分代码:

%% 清空环境变量
tic
clc
clear
close all
format compact
%% 导入数据
load data1
input=In';
output=U3;
%%
% 随机生成训练集、测试集
rand('seed',0)

k = randperm(size(input,1));
m=7100;
P_train=input(k(1:m),:)';
T_train=output(k(1:m));

P_test=input(k(m+1:end),:)';
T_test=output(k(m+1:end));

%% 归一化
% 训练集
[Pn_train,inputps] = mapminmax(P_train,-1,1);
Pn_test = mapminmax('apply',P_test,inputps);
% 测试集
[Tn_train,outputps] = mapminmax(T_train,-1,1);
Tn_test = mapminmax('apply',T_test,outputps);

%% 节点个数
inputnum=size(Pn_train,1);
hiddennum=5;
outputnum=1;
%% 没有优化的bp
net=newff(Pn_train,Tn_train,hiddennum);
net.trainParam.epochs=200;
net.trainParam.lr=0.1;
net.trainParam.goal=0.00000001;
net.trainParam.max_fail = 200;

%网络训练
[net,per2]=train(net,Pn_train,Tn_train);
an=sim(net,Pn_test);
error=an-Tn_test;

test_simu=mapminmax('reverse',an,outputps);
disp('优化前')
E1=norm(error);
E2=mse(error)
MAPE=mean(abs(error)./Tn_test);

figure
plot(test_simu)
hold on
plot(T_test)
legend('实际输出','期望输出')

%% 粒子群优化bp


% [bestchrom,trace]=psoforbp(inputnum,hiddennum,outputnum,Pn_train,Tn_train);%粒子群算法
% x=bestchrom;
% save result x
load result%直接调用训练好的
% 用pso优化的BP网络进行值预测
w1=x(1:inputnum*hiddennum);
B1=x(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum);
w2=x(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum);
B2=x(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum);

net.iw{1,1}=reshape(w1,hiddennum,inputnum);
net.lw{2,1}=reshape(w2,outputnum,hiddennum);
net.b{1}=reshape(B1,hiddennum,1);
net.b{2}=B2';

%% BP网络训练
%网络进化参数
net.trainParam.epochs=200;
net.trainParam.lr=0.1;
net.trainParam.goal=0.00000001;
net.trainParam.max_fail = 200;

%网络训练
[net,per2]=train(net,Pn_train,Tn_train);

%% BP网络预测
%数据归一化
an=sim(net,Pn_test);
error=an-Tn_test;

test_simu=mapminmax('reverse',an,outputps);
disp('优化后')
E1=norm(error);
E2=mse(error)
MAPE=mean(abs(error)./Tn_test);
toc
%%
figure
plot(test_simu)
hold on
plot(T_test)
legend('实际输出','期望输出')

5 运行结果


 

 

 

 

6 参考文献 

部分理论引用网络文献,如有侵权请联系删除。

[1]郝海霞.用粒子群算法优化BP神经网络进行函数拟合[J].山西师范大学学报(自然科学版),2017,31(01):14-16.DOI:10.16207/j.cnki.1009-4490.2017.01.004.

7 Matlab代码实现

  • 4
    点赞
  • 105
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
### 回答1: 粒子群优化算法 (Particle Swarm Optimization, PSO) 是一种模拟鸟群觅食行为的优化算法,它常被用来优化人工神经网络,其中包括BP神经网络。 PSO算法的核心思想是通过模拟粒子在搜索空间中的行为,寻找到适应度函数最优的解。每个粒子都有一定的位置和速度,粒子的位置表示搜索空间中的一个解,而速度表示粒子在搜索过程中的移动方向和步长。 在优化BP神经网络代码中,需要将BP神经网络的适应度函数作为PSO算法的目标函数,粒子的位置表示BP神经网络的权值和阈值参数。 具体而言,可以按照以下步骤来编写粒子群优化BP神经网络代码: 1. 初始化粒子群的位置和速度。随机初始化粒子的位置和速度,位置代表BP神经网络的权值和阈值参数。 2. 计算每个粒子的适应度值。将每个粒子的位置映射到BP神经网络中,并根据BP神经网络的模型计算每个粒子的适应度值。 3. 更新全局最优解和个体最优解。根据每个粒子的适应度值,更新全局最优解和个体最优解,用于引导粒子的搜索方向。 4. 更新粒子的位置和速度。根据全局最优解和个体最优解,更新粒子的速度和位置,以使粒子能够向最优解的方向移动。 5. 判断收敛条件。在每次迭代之后,判断是否达到终止条件,例如最大迭代次数或适应度值的收敛。 6. 输出优化结果。当满足终止条件时,将全局最优解作为BP神经网络的最优权值和阈值参数,在测试集上进行测试并输出结果。 通过编写以上步骤的代码,即可实现粒子群优化BP神经网络的优化过程。当代码运行结束时,将得到一个优化后的BP神经网络模型,可以用于进行预测和分类任务。 ### 回答2: 粒子群优化算法(Particle Swarm Optimization,PSO)结合了群体智能和优化算法的思想,适用于解决各种优化问题。BP神经网络(Back Propagation Neural Network)是一种常用的神经网络模型,通过训练来提高模型的准确性。 将粒子群优化算法BP神经网络结合起来,可以提高BP网络的收敛速度和准确性,并优化网络的权重和偏置值。下面是一个基于粒子群优化BP神经网络代码示例: 1. 初始化粒子群的位置和速度,网络的权重和偏置值。 2. 根据粒子群当前位置和速度,计算每个粒子的适应度值。 3. 更新整个粒子群的全局最优位置和适应度值。 4. 对每个粒子,根据速度和当前位置,更新其下一步位置和速度。 5. 根据更新后的位置和速度,计算每个粒子的适应度值,更新局部最优位置和适应度值。 6. 重复步骤4和5,直到达到预设的迭代次数或适应度值满足停止条件。 7. 输出全局最优位置和适应度值。 在代码实现过程中,需要根据具体问题对粒子群大小、最大迭代次数、权重和偏置的更新方式等参数进行设置和调整。通过不断迭代和更新粒子位置和速度,BP神经网络可以逐渐优化,提高网络的性能和准确性。 总结来说,粒子群优化算法可以通过优化BP神经网络的权重和偏置值,提高网络的收敛速度和准确性。通过不断更新粒子位置和速度,逐步优化网络的性能,实现更好的分类或回归效果。 ### 回答3: 粒子群优化(Particle Swarm Optimization, PSO)是一种常用的优化算法,可以用来改善神经网络模型的性能。BP神经网络是一种常用的分类和回归算法,结合PSO算法可以提高其训练速度和精度。 下面是一个使用粒子群优化算法训练BP神经网络代码示例: ```python import numpy as np # 定义BP神经网络类 class BPNN: def __init__(self, input_dim, hidden_dim, output_dim): self.input_dim = input_dim self.hidden_dim = hidden_dim self.output_dim = output_dim self.W1 = np.random.rand(self.input_dim, self.hidden_dim) self.W2 = np.random.rand(self.hidden_dim, self.output_dim) def forward(self, X): self.hidden_layer = np.dot(X, self.W1) self.hidden_activate = self.sigmoid(self.hidden_layer) self.output_layer = np.dot(self.hidden_activate, self.W2) self.output_activate = self.sigmoid(self.output_layer) return self.output_activate def backward(self, X, y, output): self.output_error = y - output self.output_delta = self.output_error * self.sigmoid_derivative(output) self.hidden_error = self.output_delta.dot(self.W2.T) self.hidden_delta = self.hidden_error * self.sigmoid_derivative(self.hidden_activate) self.W2 += self.hidden_activate.T.dot(self.output_delta) self.W1 += X.T.dot(self.hidden_delta) def sigmoid(self, x): return 1 / (1 + np.exp(-x)) def sigmoid_derivative(self, x): return x * (1 - x) # 定义粒子群优化类 class PSO: def __init__(self, swarm_size, max_iter, input_dim, hidden_dim, output_dim): self.swarm_size = swarm_size self.max_iter = max_iter self.input_dim = input_dim self.hidden_dim = hidden_dim self.output_dim = output_dim self.swarm = [] self.global_best = float('inf') def initialize_swarm(self): for _ in range(self.swarm_size): p = BPNN(self.input_dim, self.hidden_dim, self.output_dim) self.swarm.append(p) def update_best(self): for p in self.swarm: output = p.forward(X) error = np.sum(np.square(y - output)) if error < p.best_error: p.best_error = error p.best_position = p.position if error < self.global_best: self.global_best = error self.global_best_position = p.position def update_swarm(self): w = 0.5 # 惯性权重 c1 = 2.0 # 个体认知因子 c2 = 2.0 # 社会认知因子 for p in self.swarm: r1 = np.random.rand(p.position.shape[0], p.position.shape[1]) r2 = np.random.rand(p.position.shape[0], p.position.shape[1]) p.velocity = (w * p.velocity) + (c1 * r1 * (p.best_position - p.position)) + (c2 * r2 * (self.global_best_position - p.position)) p.position = p.position + p.velocity def train(self, X, y): self.initialize_swarm() for _ in range(self.max_iter): self.update_best() self.update_swarm() best_model = self.swarm[np.argmin([p.best_error for p in self.swarm])] best_model.forward(X) ``` 以上是一个使用粒子群优化算法训练BP神经网络的基本代码实现。需要注意的是,这只是一个简化的实现,实际应用中可能还需要进行参数调优和准确度评估。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

荔枝科研社

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值