目录
1.算法描述
PSO算法是一种随机的、并行的优化算法。它的优点是:不要求被优化函数具有可微、可导、连续等性质,收敛速度较快,算法简单,容易编程实现。然而,PSO算法的缺点在于:(1)对于有多个局部极值点的函数,容易陷入到局部极值点中,得不到正确的结果。造成这种现象的原因有两种,其一是由于待优化函数的性质;其二是由于微粒群算法中微粒的多样性迅速消失,造成早熟收敛。这两个因素通常密不可分地纠缠在一起。(2)由于缺乏精密搜索方法的配合,PSO算法往往不能得到精确的结果。造成这种问题的原因是PSO算法并没有很充分地利用计算过程中获得的信息,在每一步迭代中,仅仅利用了群体最优和个体最优的信息。(3)PSO算法虽然提供了全局搜索的可能,但是并不能保证收敛到全局最优点上。(4)PSO算法是一种启发式的仿生优化算法,当前还没有严格的理论基础,仅仅是通过对某种群体搜索现象的简化模拟而设计的,但并没有从原理上说明这种算法为什么有效,以及它适用的范围。因此,PSO算法一般适用于一类高维的、存在多个局部极值点而并不需要得到很高精度解的优化问题。
当前针对PSO算法开展的研究工作种类繁多,经归纳整理分为如下八个大类:(1)对PSO算法进行理论分析,试图理解其工作机理;(2)改变PSO算法的结构,试图获得性能更好的算法;(3)研究各种参数配置对PSO算法的影响;(4)研究各种拓扑结构对PSO算法的影响;(5)研究离散版本的PSO算法;(6)研究PSO算法的并行算法;(7)利用PSO算法对多种情况下的优化问题进行求解;(8)将PSO算法应用到各个不同的工程领域。以下从这八大类别着手,对PSO算法的研究现状作一梳理。由于文献太多,无法面面俱到,仅捡有代表性的加以综述。
PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次迭代中,粒子通过跟踪两个“极值(pbest和gbest)”来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。
对于公式(1):
公式(1)中的第一部分称为记忆项,表示上次速度大小和方向的影响;
公式(1)中的第二部分称为自身认知项,是从当前点指向粒子自身最好点的一个矢量,表示粒子的动作来源于自己经验的部分;
公式(1)中的第三部分称为群体认知项,是一个从当前点指向种群最好点的矢量,反映了粒子间的协调合作和知识共享。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。
综上所述,标准PSO算法流程:
初始化一群微粒(群体规模为N),包括随机位置和速度;
评价每个微粒的适应度;
对每个微粒,将其适应值与其经过的最好位置pbest作比较,如果较好,则将其作为当前的最好位置pbest;
对每个微粒,将其适应值与其经过的最好位置gbest作比较,如果较好,则将其作为当前的最好位置gbest;
根据公式(2)、(3)调整微粒的速度和位置;
未达到结束条件则转到第二步。
迭代终止条件根据具体问题一般选为最大迭代次数Gk或微粒群迄今为止搜索到的最优位置满足预定最小适应阈值。
2.matlab算法仿真效果
matlab2022a仿真结果如下:
3.MATLAB核心程序
global Ri;
global Pij;
global Si;
%导入excel数据
dat1 = xlsread('alpha_beta.xlsx');
dat2 = xlsread('project_correlation.xlsx');
alpha = dat1(:,1);
beta = dat1(:,2);
Rm = dat1(:,3);
Ri = [alpha + beta.*Rm]';
Pij = dat2(1:30,1:30);
for i = 1:30
for j = 1:30
if isnan(Pij(i,j)) == 1
Pij(i,j) = 0;
end
end
end
Si = dat2(1:30,34);
%粒子初始化
%粒子群算法中的两个参数
c1 = 1.5;
c2 = 1.5;
%最大最小权值
wmax = 0.9;
wmin = 0.1;
%最大最小速度
Vmax = 1.5;
Vmin = -1.5;
%最大最小个体
popmax = 1;
popmin = 0;
maxgen = 280; %进化次数
sizepop= 500; %种群规模
LE = 30;
%随机产生一个种群
for i=1:sizepop
pop(i,:) = 0.6*rand(1,LE); %个体编码
pop(i,:) = pop(i,:)/sum(pop(i,:));
fitness1(i)= func_object1(pop(i,:));%染色体的适应度
fitness2(i)= func_object2(pop(i,:));%染色体的适应度
V(i,:) = 0.03*rands(1,LE); %初始化速度
fitness(i) =(0.5*fitness1(i)+0.5*fitness2(i));
end
%初始种群极值
%找最好的染色体
[bestfitness,bestindex] = min(fitness);
[bestfitness1,bestindex1] = min(fitness1);
[bestfitness2,bestindex2] = min(fitness2);
%全局最佳
zbest = pop(bestindex,:);
%个体最佳
gbest = pop;
%个体最佳适应度值
fitnessgbest = fitness;
fitnessgbest1 = fitness1;
fitnessgbest2 = fitness2;
%全局最佳适应度值
fitnesszbest = bestfitness;
fitnesszbest1 = bestfitness;
fitnesszbest2 = bestfitness;
%迭代寻优
for i=1:maxgen
i
for j=1:sizepop
%变权值
w =(wmax-wmin)*(i-1)/(maxgen)+wmin;
% %固定权值
% w = 0.1;
%速度更新
V(j,:) = w*V(j,:) + c1*rand*(gbest(j,:) - pop(j,:)) + c2*rand*(zbest - pop(j,:));
V(j,find(V(j,:)>Vmax)) = Vmax; %小于最大速度
V(j,find(V(j,:)<Vmin)) = Vmin; %大于最小速度
%种群更新
pop(j,:) = pop(j,:)+0.9*V(j,:);
%适应度值
pop(j,:) = pop(j,:)/sum(pop(j,:));
%小于个体最大值
pop(j,find(pop(j,:)>popmax)) = popmax;
%大于个体最小值
pop(j,find(pop(j,:)<popmin)) = popmin;
%适应度值
pop(j,:) = pop(j,:)/sum(pop(j,:));
fitness1(j) = func_object1(pop(j,:));
fitness2(j) = func_object2(pop(j,:));
fitness(j) = (0.5*fitness1(j)+0.5*fitness2(j));
end
for j=1:sizepop
%个体极值更新
if fitness(j)>fitnessgbest(j)
gbest(j,:) = pop(j,:);
fitnessgbest(j) = fitness(j);
fitnessgbest1(j) = fitness1(j);
fitnessgbest2(j) = fitness2(j);
end
%全局极值更新
if fitness(j)>fitnesszbest
zbest = pop(j,:);
fitnesszbest = fitness(j);
fitnesszbest1 = fitness1(j);
fitnesszbest2 = fitness2(j);
end
end
%记录最优适应度值
yy(i) = fitnesszbest;
E(i) = fitnesszbest1;
F(i) = fitnesszbest2;
%保存数据
SAVES(1,i) = E(i);
SAVES(2,i) = F(i);
SAVES(3:32,i) = zbest';
end
figure;
plot(F,E,'linewidth',2);
title('风险收益曲线图');
xlabel('RISK');
ylabel('RETURN,E(Ri)');
grid on
02_037m
4.完整MATLAB
V
V