【优化求解】基于精英反向和纵横交叉的鲸鱼优化算法求解单目标优化问题附matlab代码(ECWOA)

1 简介

针对鲸鱼优化算法收敛速度慢,收敛精度低以及易陷入局部最优等问题,提出一种基于精英反向和纵横交叉的鲸鱼优化算法(ECWOA).该算法首先通过精英反向学习策略初始化种群,以提高初始解的质量,加快全局收敛速度;其次,采用逆不完全Γ函数更新收敛因子来平衡算法全局探索和局部开发能力;最后,利用纵横交叉策略对种群和全局最优解进行修正,以此来保证种群个体的多样性,提高算法跳出局部最优的能力.通过对8个经典测试函数的仿真实验表明,ECWOA算法的寻优精度和收敛速度均有明显的提升.

2 部分代码

%_________________________________________________________________________%

%  Whale Optimization Algorithm (WOA) source codes demo 1.0               %

%                                                                         %

%                                                                         %

%_________________________________________________________________________%

% You can simply define your cost in a seperate file and load its handle to fobj 

% The initial parameters that you need are:

%__________________________________________

% fobj = @YourCostFunction

% dim = number of your variables

% Max_iteration = maximum number of generations

% SearchAgents_no = number of search agents

% lb=[lb1,lb2,...,lbn] where lbn is the lower bound of variable n

% ub=[ub1,ub2,...,ubn] where ubn is the upper bound of variable n

% If all the variables have equal lower bound you can just

% define lb and ub as two single number numbers

% To run ALO: [Best_score,Best_pos,cg_curve]=ALO(SearchAgents_no,Max_iteration,lb,ub,dim,fobj)

% The Whale Optimization Algorithm

function [Leader_score,Leader_pos,Convergence_curve]=WOA(SearchAgents_no,Max_iter,lb,ub,dim,fobj,handles,value)

% initialize position vector and score for the leader

Leader_pos=zeros(1,dim);

Leader_score=inf; %change this to -inf for maximization problems

%Initialize the positions of search agents

Positions=initialization(SearchAgents_no,dim,ub,lb);

Convergence_curve=zeros(1,Max_iter);

t=0;% Loop counter

% Main loop

while t<Max_iter

    for i=1:size(Positions,1)

        

        % Return back the search agents that go beyond the boundaries of the search space

        Flag4ub=Positions(i,:)>ub;

        Flag4lb=Positions(i,:)<lb;

        Positions(i,:)=(Positions(i,:).*(~(Flag4ub+Flag4lb)))+ub.*Flag4ub+lb.*Flag4lb;

        

        % Calculate objective function for each search agent

        fitness=fobj(Positions(i,:));

        All_fitness(1,i)=fitness;

        

        % Update the leader

        if fitness<Leader_score % Change this to > for maximization problem

            Leader_score=fitness; % Update alpha

            Leader_pos=Positions(i,:);

        end

        

    end

    

    a=2-t*((2)/Max_iter); % a decreases linearly fron 2 to 0 in Eq. (2.3)

    

    % a2 linearly dicreases from -1 to -2 to calculate t in Eq. (3.12)

    a2=-1+t*((-1)/Max_iter);

    

    % Update the Position of search agents 

    for i=1:size(Positions,1)

        r1=rand(); % r1 is a random number in [0,1]

        r2=rand(); % r2 is a random number in [0,1]

        

        A=2*a*r1-a;  % Eq. (2.3) in the paper

        C=2*r2;      % Eq. (2.4) in the paper

        

        

        b=1;               %  parameters in Eq. (2.5)

        l=(a2-1)*rand+1;   %  parameters in Eq. (2.5)

        

        p = rand();        % p in Eq. (2.6)

        

        for j=1:size(Positions,2)

            

            if p<0.5   

                if abs(A)>=1

                    rand_leader_index = floor(SearchAgents_no*rand()+1);

                    X_rand = Positions(rand_leader_index, :);

                    D_X_rand=abs(C*X_rand(j)-Positions(i,j)); % Eq. (2.7)

                    Positions(i,j)=X_rand(j)-A*D_X_rand;      % Eq. (2.8)

                    

                elseif abs(A)<1

                    D_Leader=abs(C*Leader_pos(j)-Positions(i,j)); % Eq. (2.1)

                    Positions(i,j)=Leader_pos(j)-A*D_Leader;      % Eq. (2.2)

                end

                

            elseif p>=0.5

              

                distance2Leader=abs(Leader_pos(j)-Positions(i,j));

                % Eq. (2.5)

                Positions(i,j)=distance2Leader*exp(b.*l).*cos(l.*2*pi)+Leader_pos(j);

                

            end

            

        end

    end

    

    t=t+1;

    Convergence_curve(t)=Leader_score;

    

    if t>2

        line([t-1 t], [Convergence_curve(t-1) Convergence_curve(t)],'Color','b')

        xlabel('Iteration');

        ylabel('Best score obtained so far');        

        drawnow

    end

    

    set(handles.itertext,'String', ['The current iteration is ', num2str(t)])

    set(handles.optimumtext,'String', ['The current optimal value is ', num2str(Leader_score)])

    if value==1

        hold on

        scatter(t*ones(1,SearchAgents_no),All_fitness,'.','k')

    end

    

    

    

    

end

​3 仿真结果

4 参考文献

[1]刘琨, 赵露露, 王辉. 一种基于精英反向和纵横交叉的鲸鱼优化算法[J]. 小型微型计算机系统, 2020, 41(10):6.

博主简介:擅长智能优化算法、神经网络预测、信号处理、元胞自动机、图像处理、路径规划、无人机等多种领域的Matlab仿真,相关matlab代码问题可私信交流。

部分理论引用网络文献,若有侵权联系博主删除。

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
优化求解是指利用一定的算法方法,找到问题的最优解或接近最优解的解。在基于Matlab优化求解中,常常使用遗传算法和粒子群算法求解目标优化问题。 遗传算法是一种模拟自然界遗传进化过程的优化算法。其基本思想是通过模拟进化的过程,对当前的种群进行选择、交叉和变异等操作,不断产生新的解,并筛选出适应度更高的解作为下一代种群。这样,经过多代的进化,种群的平均适应度会不断提高,逐渐逼近最优解。 粒子群算法是模拟鸟群或鱼群等群体行为的一种优化算法。在粒子群算法中,每个个体(粒子)有自己的位置和速度,并通过与邻近个体的交流与学习,来不断调整自己的位置和速度。这样,个体逐渐靠近全局最优解,并在搜索空间中形成一个逐渐收敛的群体。 基于Matlab优化求解中,可以将遗传算法和粒子群算法结合起来,以更好地求解目标优化问题。首先,可以利用遗传算法生成初始种群,并通过选择、交叉和变异操作产生新的解。然后,利用粒子群算法对遗传算法产生的解进行进一步优化,通过粒子的位置和速度调整,使粒子群逼近全局最优解。最后,根据遗传算法和粒子群算法的结果,选择具有最优适应度的解作为最终求解结果。 综上所述,基于Matlab的遗传算法和粒子群算法的结合在求解目标优化问题中具有较好的效果,可以找到最优解或接近最优解的解。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

天天Matlab科研工作室

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值