m基于MSOPSO多策略粒子群算法的目标优化matlab仿真

目录

1.算法描述

2.matlab算法仿真效果

3.MATLAB核心程序

4.完整MATLAB


1.算法描述

        粒子群优化算法(particle swarm optimization,PSO)是一种源于对鸟群捕食行为的研究而发明的进化计算技术,最先由Eberhart 博士和Kennedy 博士提出,其主要想法是:将每个优化问题的解看作是搜索空间中的一个没有体积的粒子,在搜索空间中以一定的速度飞行,速度的大小与方向根据它本身和同伴的飞行经验来动态调整。

       粒子Xi 在第t 次进行迭代的速度与位置运算公式为:

       当进化过程中产生新个体X 时,同时对该个体的反向位置Xi 进行考察,综合比较产生一个更优的个体。这样,个体Xi与最优位置之间的距离就会缩小,从而提高算法的效率。

       在粒子群算法优化过程的初期,大数值的权重系数可以增强全局搜索能力;在优化过程的后期,小数值的迭代权重将有利于局部搜索;而常数权重无法调节这两方面的搜索能力,所以本文通过引入随时间变化的权重系数来平衡全局搜索和局部搜索能力。

      MSOPSO 算法流程图:

2.matlab算法仿真效果

matlab2022a仿真结果如下:

 

3.MATLAB核心程序

x_best    = zeros(1,Pop);
y_best    = zeros(1,Pop);
 
Smax      = 100;
S         = 0;
%粒子初始化
for i=1:Pop
    %N
    x1(1,i)         = rand(1)*(max1-min1)+min1;
    x_best1(1,i)    = rand(1)*(max1-min1)+min1;
    %I
    y1(1,i)         = rand(1)*(max2-min2)+min2;
    y_best1(1,i)    = rand(1)*(max2-min2)+min2;

    %反向学习初始化
    %N
    x_(1,i)        = (max1+min1)-x(1,i);
    x_best_(1,i)   = (max1+min1)-x_best(1,i);
    %I
    y_(1,i)        = (max2+min2)-y(1,i);
    y_best_(1,i)   = (max2+min2)-y_best(1,i);
    
    
    [BsJ1,x(1,i),y(1,i)] = func_fitness(x1(1,i),y1(1,i)); 
    [BsJ2,x(1,i),y(1,i)] = func_fitness(x_(1,i),y_(1,i));    
    
    if BsJ1 < BsJ2
        %N
        x(1,i)         = x1(1,i);
        x_best(1,i)    = x_best1(1,i);
        %I
        y(1,i)         = y1(1,i);
        y_best(1,i)    = y_best1(1,i);
        BsJi(i)        = BsJ1;
    else
        %N
        x(1,i)         = x_(1,i);
        x_best(1,i)    = x_best_(1,i);
        %I
        y(1,i)         = y_(1,i);
        y_best(1,i)    = y_best_(1,i);
        BsJi(i)        = BsJ2;
    end
 
    va(1,i)   =(vmax-vmin)*rand(1)+vmin;
    vb(1,i)   =(vmax-vmin)*rand(1)+vmin;
end
[minJi,index]= min(BsJi);

Tx_best    = 500;
Ty_best    = 500;
for t=1:tmax
    t
    time(t) = t;
    w       = wmax-t*(wmax-wmin)/tmax;
    c2      = c2max-t*(c2max-c2min)/tmax;
    for i=1:Pop
        if t > 1
            %N
            x(1,i)         = x_(1,i);
            x_best(1,i)    = x_best_(1,i);
            %I
            y(1,i)         = y_(1,i);
            y_best(1,i)    = y_best_(1,i);
        end
        %N
        %速度1设置
        va(1,i) = w*va(1,i) + c1*rand(1)*(x_best(1,i)-x(1,i)) + c2*rand(1)*(Tx_best-x(1,i));
        %更新
        x(1,i)  = x(1,i) + va(1,i);
        %变量1的限制
        if x(1,i) >= max1
           x(1,i) = max1;
        end
        if x(1,i) <= min1
           x(1,i) = min1;
        end                             

        %I
        %速度2设置
        vb(1,i) = w*vb(1,i) + c1*rand(1)*(y_best(1,i)-y(1,i)) + c2*rand(1)*(Ty_best-y(1,i));
        %更新
        y(1,i)  = y(1,i) + vb(1,i);
        %变量2的限制
        if y(1,i) >= max2
           y(1,i) = max2;
        end
        if y(1,i) <= min2
           y(1,i) = min2;
        end                           
 
        [BsJ,x(1,i),y(1,i)] = func_fitness(x(1,i),y(1,i));  
        
        if BsJ<BsJi(i)
           BsJi(i)        = BsJ;
           x_best(1,i)    = x(1,i);
           y_best(1,i)    = y(1,i);
        end
        if BsJi(i)<minJi
           minJi      = BsJi(i);
           Tx_best    = x(1,i);
           Ty_best    = y(1,i);
        end
        %反向
        %反向
        %反向学习
        %N
        x_(1,i)         = (max1+min1)-x(1,i);
        x_best_(1,i)    = (max1+min1)-x_best(1,i);
        %I
        y_(1,i)         = (max2+min2)-y(1,i);
        y_best_(1,i)    = (max2+min2)-y_best(1,i);
        
        %计算反向点和当前点的适应度
        [BsJa,xa(1,i),ya(1,i)] = func_fitness(x(1,i),y(1,i));
        [BsJb,xb(1,i),yb(1,i)] = func_fitness(x_(1,i),y_(1,i));
        
        %选择较优点
        if BsJa <= BsJb
            x(1,i)         = x(1,i);
            x_best(1,i)    = x_best(1,i);
            %I
            y(1,i)         = y(1,i);
            y_best(1,i)    = y_best(1,i);
        else
            x(1,i)         = x_(1,i);
            x_best(1,i)    = x_best_(1,i);
            %I
            y(1,i)         = y_(1,i);
            y_best(1,i)    = y_best_(1,i);
        end
        [BsJ,x(1,i),y(1,i)] = func_fitness(x(1,i),y(1,i));
 
        
        if BsJ<BsJi(i)
           BsJi(i)        = BsJ;
           x_best(1,i)    = x(1,i);
           y_best(1,i)    = y(1,i);
        end
        if BsJi(i)<minJi
           minJi      = BsJi(i);
           Tx_best    = x(1,i);
           Ty_best    = y(1,i);
        end 
    end
    %判断全局最优解是否有更新
    Jibest(t) = minJi;
    
    if t > 1
       if abs(Jibest(t) - Jibest(t-1)) < 0.0001%认为没有更新
          S = S + 1; 
          if S >= Smax%多开端策略,种群重新初始化,用于下一次迭代使用
             for i=1:Pop
                %N
                x(1,i)         = rand(1)*(max1-min1)+min1;
                x_best(1,i)    = rand(1)*(max1-min1)+min1;
                %I
                y(1,i)         = rand(1)*(max2-min2)+min2;
                y_best(1,i)    = rand(1)*(max2-min2)+min2;

                %反向学习初始化
                %N
                x_(1,i)        = (max1+min1)-x(1,i);
                x_best_(1,i)   = (max1+min1)-x_best(1,i);
                %I
                y_(1,i)        = (max2+min2)-y(1,i);
                y_best_(1,i)   = (max2+min2)-y_best(1,i);
             end
          S=0;   
          end
       end
    end

end
02_042m

4.完整MATLAB

V

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我爱C编程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值