粒子群算法
一. 介绍:
粒子群算法(PSO)是由Kennedy 和Eberhart等于1995 年开发的一种演化计算技术, 来源于Millonas 对一个简化社会模型的模拟。
PSO 中,每个优化问题的解就像搜索空间中的一只鸟。我们称之为“粒子”。所有的粒子都有一个由被优化的函数决定的适应值(fitness value),每个粒子还有一个速度决定他们飞翔的方向和距离。然后粒子们就追随当前的最优粒子在解空间中搜索。PSO 初始化为一群随机粒子(随机解),然后通过迭代找到最优解,在每一次迭代中,粒子通过跟踪两个“极值”来更新自己。第一个就是粒子本身所找到的最优解,这个解叫做个体极值 p Best,另一个极值是整个种群目前找到的最优解,这个极值是全局极值 g Best。另外也可以不用整个种群而只是用其中一部分最优粒子的邻居,那么在所有邻居中的极值就是局部极值。
二.参数设定
种群数量:初始种群取50-1000都是可以的,虽然初始种群越大收敛性会更好,不过太大了也会影响速度;
迭代次数:一般取100~4000,太少解不稳定,太多浪费时间。对于复杂问题,进化代数可以相应地提高;
惯性权重:该参数反映了个体历史成绩对现在的影响,一般取0.5~1;
学习因子:一般取0~4,此处要根据自变量的取值范围来定,并且学习因子分为个体和群体两种;
空间维数:粒子搜索的空间维数即为自变量的个数。
位置限制:限制粒子搜索的空间,即自变量的取值范围,对于无约束问题此处可以省略。
速度限制:如果粒子飞行速度过快,很可能直接飞过最优解位置,但是如果飞行速度过慢,会使得收敛速度变慢,因此设置合理的速度限制就很有必要了。
三.相关例子代码
1.对于函数 f=xsin(x)cos(2x)-2xsin(3x) ,求其在区间[0,20]上该函数的最大值
%% 初始化种群
f= @(x)x .*sin(x) .* cos(2 * x) - 2 * x .* sin(3 * x); % 函数表达式(@定义新变量)
figure(1);ezplot(f,[0,0.01,20]);
N = 50; % 初始种群个数
d = 1; % 空间维数
ger = 100; % 最大迭代次数
limit = [0, 20]; % 设置位置参数限制
vlimit = [-1, 1]; % 设置速度限制
w = 0.8; % 惯性权重
c1 = 0.5; % 自我学习因子
c2 = 0.5; % 群体学习因子
for i = 1:d
x = limit(i, 1) + (limit(i, 2) - limit(i, 1)) * rand(N, d);%初始种群的位置
end
v = rand(N, d); % 初始种群的速度
xm = x; % 每个个体的历史最佳位置
ym = zeros(1, d); % 种群的历史最佳位置
fxm = zeros(N, 1); % 每个个体的历史最佳适应度
fym = -inf; % 种群历史最佳适应度
hold on
plot(xm, f(xm), 'ro');title('初始状态图');
%% 群体更新
iter = 1;
record = zeros(ger, 1); % 记录器
while iter <= ger
fx = f(x) ; % 个体当前适应度
for i = 1:N
if fxm(i) < fx(i)
fxm(i) = fx(i); % 更新个体历史最佳适应度
xm(i,:) = x(i,:); % 更新个体历史最佳位置
end
end
if fym < max(fxm)
[fym, nmax] = max(fxm); % 更新群体历史最佳适应度
ym = xm(nmax, :); % 更新群体历史最佳位置
end
v = v * w + c1 * rand * (xm - x) + c2 * rand * (repmat(ym, N, 1) - x);% 速度更新
% 边界速度处理
v(v > vlimit(2)) = vlimit(2);
v(v < vlimit(1)) = vlimit(1);
x = x + v;% 位置更新
% 边界位置处理
x(x > limit(2)) = limit(2);
x(x < limit(1)) = limit(1);
record(iter) = fym;%最大值记录
x0 = 0 : 0.01 : 20;
plot(x0, f(x0), 'b-', x, f(x), 'ro');title('状态位置变化')
pause(0.1)
iter = iter+1;
end
figure(3);plot(record);title('收敛过程')
x0 = 0 : 0.01 : 20;
figure(4);plot(x0, f(x0), 'b-', x, f(x), 'ro');title('最终状态位置')
disp(['最大值:',num2str(fym)]);
disp(['变量取值:',num2str(ym)])
运行结果
2.求y= 2.1(1 - x + 2 x^2)exp(-xx/2),x在[-5,5],的最大值
fitness.m
repeat
for 每个粒子i=1,2,…n do
//设置个体最佳位置
if f(i)<y then
y=f(i);
end
//设置全局最佳位置
if y<Y then
Y=y;
end
end
for 每个粒子i=1,2,…n do
用速度方程更新速度
用位置方程更新位置
end
until 满足终止条件
PSO1.m
%gbest PSO的matlab实现代码如下:
ic; % 程序运行计时
E0 = 0.001; % 允许误差
MaxNum = 100; % 粒子最大迭代次数
narvs = 1; % 目标函数的自变量个数
particlesize = 30; % 粒子群规模
c1 = 2; % 个体经验学习因子
c2 = 2; % 社会经验学习因子
w =0.6; % 惯性因子
vmax = 0.8; % 粒子的最大飞翔速度
x = -5 + 10 * rand(particlesize, narvs);% 粒子所在的位置 (rand产生的大小为0,1),规模是 粒子群数和参数需求数 设置了x的取值范围[-5,5]
v = 2*rand(particlesize,narvs); % 粒子的飞翔速度 生成每个粒子的飞翔速度,由于是只有一个变量,所以速度是一维的
fitness = inline('1/(1+(2.1*(1 - x + 2 * x.^2).*exp(-x.^2/2)))','x'); % 这里求倒数,还在分母上加了个1,确保不会出现分母为0的情况,转为求最小值位置
% inline函数定义可以大大降低程序运行速度
for i= 1:particlesize
f(i) = fitness(x(i,1));
end
% 完成了对每一个粒子,在各自位置上的适应值
% 粒子开始学习
personalbest_x=x; % 用于存储对于每一个粒子最佳经历点的x值
personalbest_faval=f; % 同时存储对于每一个粒子的最佳经历点的数值,用于更改
[globalbest_faval,i] = min(personalbest_faval); % min函数返回的第一个是最小值,还有一个就是最小值的下标,这里就是告诉了是在哪个粒子上
globalbest_x = personalbest_x(i,:); % 这个是必定是全局最优点的位置
k = 1; % 开始迭代计数
while k <= MaxNum % 当迭代次数达到设定的最大值的时候,就不要再进行迭代了
for i = 1:particlesize % 对于每一个粒子
f(i) = fitness(x(i,1)); % 得到每个粒子的当前位置 在函数上的适应值
if f(i) < personalbest_faval(i) % 如果这个值是小于个人最优解的位置的时候,就更新,我们经过转换,所以只用考虑求最小值的情况
personalbest_faval(i) = f(i); % 将第i个粒子的个人最优解设置为
personalbest_x(i,:) = x(i,:); % 同时更改最有地址的位置
end
end
[globalbest_faval,i] = min(personalbest_faval);
globalbest_x = personalbest_x(i,:); % 更新全局 全局信息由个体信息描述组成
for i = 1:particlesize
v(i,:) = w*v(i,:) + c1*rand*(personalbest_x(i,:) - x(i,:)) + c2*rand*(globalbest_x-x(i,:)); % 由个人和全局的最佳信息数据进行更新移动速度
% 上面中rand会随机生成一个rand(0,1)然后会随机的降低学习因子的比例
for j = 1:narvs % 这个个循环确定了每个自变量上的速度,有没有超过对应的最大值
if v(i,j) > vmax
v(i,j) = vmax;
elseif v(i,j) < -vmax
v(i,j) = -vmax;
end
end
x(i,:) = x(i,:) + v(i,:); % 通过速度更新位置
end
if abs(globalbest_faval) < E0,break,end
k = k + 1;
end
Value1 = 1/globalbest_faval - 1; % 还记得上面做了一个加1,求倒数的操作么?
Value1 = num2str(Value1);
disp(strcat('the maximum value',' = ', Value1)); % 主要是在这进行了展示
Value2 = globalbest_x; % 得到了全局最优解的位置
Value2 = num2str(Value2);
disp(strcat('the maximum x = ', Value2));
% 绘图
x = -5:0.01:5;
y = 2.1*(1 - x + 2 * x.^2).*exp(-x.^2/2);
plot(x,y,'m-','linewidth',3); % m表示的是粉红色,-是表示的是连续的曲线线
hold on;
plot(globalbest_x, 1/globalbest_faval-1,'kp','linewidth',4);
legend('目标函数','搜索到的最大值');
xlabel('x'); % 给x轴贴标签
ylabel('y'); % 给y轴贴标签
grid on;在这里插入代码片
运行结果
the maximum value =5.1985
the maximum x =-1.1617