粒子群算法 PSO(Particle Swarm Optimization)——原理及实现

1. 粒子群算法的概念

粒子群优化算法(PSO:Particle swarm optimization)是一种进化计算技术(evolutionary computation)。源于对鸟群捕食的行为研究。粒子群优化算法的基本思想:是通过群体中个体之间的协作和信息共享来寻找最优解.
PSO的优势:在于简单容易实现并且没有许多参数的调节。目前已被广泛应用于函数优化、神经网络训练、模糊系统控制以及其他遗传算法的应用领域。

2. 粒子群算法分析

  • 基本思想

粒子群算法通过设计一种无质量的粒子来模拟鸟群中的鸟,粒子仅具有两个属性:速度和位置,速度代表移动的快慢,位置代表移动的方向。每个粒子在搜索空间中单独的搜寻最优解,并将其记为当前个体极值,并将个体极值与整个粒子群里的其他粒子共享,找到最优的那个个体极值作为整个粒子群的当前全局最优解,粒子群中的所有粒子根据自己找到的当前个体极值和整个粒子群共享的当前全局最优解来调整自己的速度和位置。下面的动图很形象地展示了PSO算法的过程:

  • 更新规则

PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。

v i = v i + c 1 × r a n d ( ) × ( p b e s t i − x i ) + c 2 × r a n d ( ) × ( g b e s t i − x i ) (1) v_{i}=v_{i}+c_{1}\times\mathrm{rand}()\times(pbest_{i}-x_{i})+c_{2}\times\mathrm{rand}()\times(gbest_{i}-x_{i}) \tag{1} vi=vi+c1×rand()×(pbestixi)+c2×rand()×(gbestixi)(1)

x i = x i + v i (2) x_{i}=x_{i}+v_{i} \tag{2} xi=xi+vi(2)

其中 i = 1 , 2 , ⋯   , N i=1,2,\cdots,N i=1,2,,N N N N是此群中粒子的总数;
v i v_{i} vi是粒子的速度, v i v_{i} vi的最大值为 V max ⁡ > 0 V_{\max}>0 Vmax>0,如果 v i > V max ⁡ v_{i}>V_{\max} vi>Vmax,则 v i = V max ⁡ v_{i}=V_{\max} vi=Vmax
r a n d ( ) \mathrm{rand}() rand()是介于(0,1)之间的随机数;
x i x_{i} xi为粒子的当前位置;
c 1 c_{1} c1 c 2 c_{2} c2是学习因子,通常 c 1 = c 2 = 2 c_{1}=c_{2}=2 c1=c2=2

公式(1)的

  1. 第一部分称为记忆项,表示上次速度大小和方向的影响;
  2. 第二部分称为自身认知项,是从当前点指向粒子自身最好点的一个矢量,表示粒子的动作来源于自己经验的部分;
  3. 第三部分称为群体认知项,是一个从当前点指向种群最好点的矢量,反映了粒子间的协同合作和知识共享。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。

以上面两个公式为基础,形成了PSO的标准形式

v i = ω × v i + c 1 × r a n d ( ) × ( p b e s t i − x i ) + c 2 × r a n d ( ) × ( g b e s t i − x i ) v_{i}=\omega\times v_{i}+c_{1}\times \mathrm{rand}()\times(pbest_{i}-x_{i})+c_{2}\times\mathrm{rand}()\times(gbest_{i}-x_{i}) vi=ω×vi+c1×rand()×(pbestixi)+c2×rand()×(gbestixi)

其中 ω \omega ω叫做惯性因子,其值为非负。其值较大,全局寻优能力强,局部寻优能力弱;其值较小,全局寻优能力弱,局部寻优能力强。动态 ω \omega ω能获得比固定值更好的寻优结果。动态 ω \omega ω可在PSO搜索过程中线性变化,也可以根据PSO性能的某个测度函数动态改变。

目前采用较多的是线性递减权值(Linear Decreasing Weight,LDW)策略:

ω ( t ) = ( ω i n i − ω e n d ) ( G k − g ) / G k + ω e n d \omega^{(t)}=(\omega_{ini}-\omega_{end})(G_{k}-g)/G_{k}+\omega_{end} ω(t)=(ωiniωend)(Gkg)/Gk+ωend

其中 G k G_{k} Gk是最大迭代次数;
ω i n i \omega_{ini} ωini是初始惯性权值;
ω e n d \omega_{end} ωend是迭代至最大进化代数时的惯性权值;
典型权值为:

ω i n i = 0.9 , ω e n d = 0.4 \omega_{ini}=0.9,\omega_{end}=0.4 ωini=0.9,ωend=0.4

ω \omega ω的引入,使用PSO算法性能有了很大的提高,针对不同的搜索问题,可以调整全局和局部搜索能力,也使PSO算法有成功地应用于很多实际问题。

公式(2)(3)被视为标准PSO算法。

3. PSO算法的流程和伪代码

4. PSO算法举例

5. PSO算法的matlab实现


% PSO algorithm:
% velosity: vi=w*vi+c1*rand()*(pbesti-xi)+c2*rand()*(gbesti-xi);
% position: xi=xi+vi;
% Objective Funtion:y=f(x1,x2)=x1^2+x2^2,-10<=x1,x2<=10
 
%% -------------- set the weight of parameters ----------------
w=0.5;  % the weight of velocity
c1=2;   % the first weight of position
c2=2;   % the second weight of position
N=1000;       % the number of particles
NP=3;       % the number of parameters per particle
Nstep=1000;   % the step number of iteration
xmin=-100;    % the upper limit for x
xmax=100;    %the lower limit for x
vmax=1;  % to be modified according to experience
 
 
%% -------------- initialize --------------------------
x=unifrnd(xmin,xmax,N,NP)   % position
v=unifrnd(-vmax,vmax,N,NP)   %velosity
 
pbest=x;   % the best position 
% f=x(:,1).^2+x(:,2).^2;  % objective function
%f=(x-5).^2;
% f=(x(:,1)-5).^2+(x(:,2)-10).^2;
f=(x(:,1)-5).^2+(x(:,2)-10).^2+(x(:,3)-20).^2;
flbest=f;  % the optimal value per particle
fgbest=min(flbest);  % for optimal value all particle
[p1,p2]=find(flbest==fgbest); % the position of the global optimal value
p3=size(p1);
if p3(1)==1
    p4=p1;
else
    p4=p1(1);
end
gbest=pbest(p4,:); % the position of the global optimal value
 
 
%% ----------- to iterate PSO------------------------
for i=1:Nstep
    gbesttemp=repmat(gbest,N,1); % extend 1D matrix into 2D matrix
    vtemp=w*v+c1*rand()*(pbest-x)+c2*rand()*(gbest-x);
    vtemp(vtemp>vmax)=vmax;
    vtemp(vtemp<-vmax)=-vmax;
    v=vtemp;
    xtemp=x+v;
    xtemp(xtemp>xmax)=xmax;
    xtemp(xtemp<xmin)=xmin;
    x=xtemp;
    
%     f=x(:,1).^2+x(:,2).^2; % to be improved
%    f=(x-5).^2;
%    f=(x(:,1)-5).^2+(x(:,2)-10).^2;
    f=(x(:,1)-5).^2+(x(:,2)-10).^2+(x(:,3)-20).^2;
    
    flbest=min(f,flbest); % compare two matrix for the minimum value
    [temp1,temp2]=find((flbest-f)==0); % the location of the optimal value change
    if isempty(temp1)==0    % prevent null matrix
        x(temp1,:);
        pbest(temp1,:)=x(temp1,:);
    end
 
    fgbest=min(flbest);  % for optimal value per particle's position
    [p1,p2]=find(flbe
    st==fgbest);  %the position of the global optimal value
    p3=size(p1);
    if p3(1)==1 % prevent matrix elements from being greater than one
        p4=p1;
    else
        p4=p1(1);
    end
    gbest=pbest(p4,:); %the position of the global optimal value
        
end
  • 20
    点赞
  • 166
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
粒子群优化算法 (particle swarm optimization, PSO) 是一种基于群体智能的优化算法,其算法原理可以概括为以下几个步骤: 1. 初始化一群粒子的位置和速度,并随机分配其初始位置和速度。 2. 计算每个粒子的适应度值,并根据适应度值更新每个粒子的最佳位置和全局最佳位置。 3. 根据每个粒子的最佳位置和全局最佳位置,更新粒子的速度和位置。 4. 判断是否满足停止条件,若满足则输出结果,否则回到第 2 步。 具体来说,PSO 算法的每个粒子都有一个位置向量和一个速度向量。在算法的每一轮迭代中,粒子的速度和位置会根据以下公式进行更新: $v_{i}(t+1)=wv_{i}(t)+c_{1}r_{1}(p_{i}-x_{i}(t))+c_{2}r_{2}(p_{g}-x_{i}(t))$ $x_{i}(t+1)=x_{i}(t)+v_{i}(t+1)$ 其中,$v_{i}(t)$ 表示粒子 $i$ 在时间 $t$ 的速度向量,$x_{i}(t)$ 表示粒子 $i$ 在时间 $t$ 的位置向量,$p_{i}$ 表示粒子 $i$ 的历史最佳位置,$p_{g}$ 表示全局最佳位置,$w$、$c_{1}$ 和 $c_{2}$ 是常数,$r_{1}$ 和 $r_{2}$ 是 $[0,1]$ 之间的随机数。 在算法的每轮迭代中,粒子的速度和位置会不断地更新,直到满足停止条件为止。通常,停止条件可以是达到最大迭代次数、适应度值达到一定阈值等。 PSO 算法通过模拟鸟群、鱼群等群体的行为,将一群粒子看作是搜索空间中的一个个潜在解,通过不断更新粒子的位置和速度,最终找到全局最优解或近似最优解。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值