【免费下载学习】多目标灰狼优化算法:一种多准则优化的新算(Matlab代码实现)

 💥💥💞💞欢迎来到本博客❤️❤️💥💥

🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。

⛳️座右铭:行百里者,半于九十。

📋📋📋本文目录如下:🎁🎁🎁

目录

 ⛳️赠与读者

💥1 概述

📚2 运行结果

🎉3 参考文献

🌈4 Matlab代码、文档


 ⛳️赠与读者

👨‍💻做科研,涉及到一个深在的思想系统,需要科研者逻辑缜密,踏实认真,但是不能只是努力,很多时候借力比努力更重要,然后还要有仰望星空的创新点和启发点。当哲学课上老师问你什么是科学,什么是电的时候,不要觉得这些问题搞笑。哲学是科学之母,哲学就是追究终极问题,寻找那些不言自明只有小孩子会问的但是你却回答不出来的问题。建议读者按目录次序逐一浏览,免得骤然跌入幽暗的迷宫找不到来时的路,它不足为你揭示全部问题的答案,但若能让人胸中升起一朵朵疑云,也未尝不会酿成晚霞斑斓的别一番景致,万一它居然给你带来了一场精神世界的苦雨,那就借机洗刷一下原来存放在那儿的“躺平”上的尘埃吧。

     或许,雨过云收,神驰的天地更清朗.......🔎🔎🔎

💥1 概述

由于灰狼优化算法(GWO)的新颖性,文献中还没有设计该算法的多目标 版本的研究。针对多目标优化问题,本文首次提出了一种多目标灰狼优化 (MOGWO)算法。一个规模不变的外部存档被集成到 GWO 中,用于保存和检索帕累托最优解。然后,该存档被用来定义社会等级,并模拟灰狼在多目标搜索空间中的狩猎行为。该方法在 10 个多目标基准问题上进行了测试,并与两个著名的元启发式算法——基于分解的多目标进化算法(MOEA/D)和多目标粒子群优化(MOPSO)算法进行了比较。定性和定量的结果表明,所提出的算法能够给出非常有竞争力的结果,并优于其他算法。

关键字:多目标优化;进化算法;多准则优化;启发式算法;元启发式算法;

工程优化;灰狼优化算法

详细讲解见第4部分。

📚2 运行结果

部分代码:

clear all
clc
drawing_flag = 1;
nVar=5;
fobj=@(x) ZDT3(x);
% Lower bound and upper bound
lb=zeros(1,5);
ub=ones(1,5);
VarSize=[1 nVar];
GreyWolves_num=100;
MaxIt=50;  % Maximum Number of Iterations
Archive_size=100;   % Repository Size

alpha=0.1;  % Grid Inflation Parameter
nGrid=10;   % Number of Grids per each Dimension
beta=4; %=4;    % Leader Selection Pressure Parameter
gamma=2;    % Extra (to be deleted) Repository Member Selection Pressure
% Initialization
GreyWolves=CreateEmptyParticle(GreyWolves_num);
for i=1:GreyWolves_num
    GreyWolves(i).Velocity=0;
    GreyWolves(i).Position=zeros(1,nVar);
    for j=1:nVar
        GreyWolves(i).Position(1,j)=unifrnd(lb(j),ub(j),1);
    end
    GreyWolves(i).Cost=fobj(GreyWolves(i).Position')';
    GreyWolves(i).Best.Position=GreyWolves(i).Position;
    GreyWolves(i).Best.Cost=GreyWolves(i).Cost;
end

GreyWolves=DetermineDomination(GreyWolves);

Archive=GetNonDominatedParticles(GreyWolves);

Archive_costs=GetCosts(Archive);
G=CreateHypercubes(Archive_costs,nGrid,alpha);

for i=1:numel(Archive)
    [Archive(i).GridIndex Archive(i).GridSubIndex]=GetGridIndex(Archive(i),G);
end

% MOGWO main loop

for it=1:MaxIt
    a=2-it*((2)/MaxIt);
    for i=1:GreyWolves_num
        
        clear rep2
        clear rep3
        
        % Choose the alpha, beta, and delta grey wolves
        Delta=SelectLeader(Archive,beta);
        Beta=SelectLeader(Archive,beta);
        Alpha=SelectLeader(Archive,beta);
        
        % If there are less than three solutions in the least crowded
        % hypercube, the second least crowded hypercube is also found
        % to choose other leaders from.
        if size(Archive,1)>1
            counter=0;
            for newi=1:size(Archive,1)
                if sum(Delta.Position~=Archive(newi).Position)~=0
                    counter=counter+1;
                    rep2(counter,1)=Archive(newi);
                end
            end
            Beta=SelectLeader(rep2,beta);
        end
        
        % This scenario is the same if the second least crowded hypercube
        % has one solution, so the delta leader should be chosen from the
        % third least crowded hypercube.
        if size(Archive,1)>2
            counter=0;
            for newi=1:size(rep2,1)
                if sum(Beta.Position~=rep2(newi).Position)~=0
                    counter=counter+1;
                    rep3(counter,1)=rep2(newi);
                end
            end
            Alpha=SelectLeader(rep3,beta);
        end
        
        % Eq.(3.4) in the paper
        c=2.*rand(1, nVar);
        % Eq.(3.1) in the paper
        D=abs(c.*Delta.Position-GreyWolves(i).Position);
        % Eq.(3.3) in the paper
        A=2.*a.*rand(1, nVar)-a;
        % Eq.(3.8) in the paper
        X1=Delta.Position-A.*abs(D);
        
        
        % Eq.(3.4) in the paper
        c=2.*rand(1, nVar);
        % Eq.(3.1) in the paper
        D=abs(c.*Beta.Position-GreyWolves(i).Position);
        % Eq.(3.3) in the paper
        A=2.*a.*rand()-a;
        % Eq.(3.9) in the paper
        X2=Beta.Position-A.*abs(D);
        
        
        % Eq.(3.4) in the paper
        c=2.*rand(1, nVar);
        % Eq.(3.1) in the paper
        D=abs(c.*Alpha.Position-GreyWolves(i).Position);
        % Eq.(3.3) in the paper
        A=2.*a.*rand()-a;
        % Eq.(3.10) in the paper
        X3=Alpha.Position-A.*abs(D);
        
        % Eq.(3.11) in the paper
        GreyWolves(i).Position=(X1+X2+X3)./3;
        
        % Boundary checking
        GreyWolves(i).Position=min(max(GreyWolves(i).Position,lb),ub);
        
        GreyWolves(i).Cost=fobj(GreyWolves(i).Position')';
    end
    
    GreyWolves=DetermineDomination(GreyWolves);
    non_dominated_wolves=GetNonDominatedParticles(GreyWolves);
    
    Archive=[Archive
        non_dominated_wolves];
    
    Archive=DetermineDomination(Archive);
    Archive=GetNonDominatedParticles(Archive);
    
    for i=1:numel(Archive)
        [Archive(i).GridIndex Archive(i).GridSubIndex]=GetGridIndex(Archive(i),G);
    end
    
    if numel(Archive)>Archive_size
        EXTRA=numel(Archive)-Archive_size;
        Archive=DeleteFromRep(Archive,EXTRA,gamma);
        
        Archive_costs=GetCosts(Archive);
        G=CreateHypercubes(Archive_costs,nGrid,alpha);
        
    end
    
    disp(['In iteration ' num2str(it) ': Number of solutions in the archive = ' num2str(numel(Archive))]);
    save results
    
    % Results
    
    costs=GetCosts(GreyWolves);
    Archive_costs=GetCosts(Archive);
    
    if drawing_flag==1
        hold off
        plot(costs(1,:),costs(2,:),'k.');
        hold on
        plot(Archive_costs(1,:),Archive_costs(2,:),'rd');
        legend('Grey wolves','Non-dominated solutions');
        drawnow
    end
    
end

🎉3 参考文献

文章中一些内容引自网络,会注明出处或引用为参考文献,难免有未尽之处,如有不妥,请随时联系删除。

🌈4 Matlab代码、文档

回复:多目标灰狼

免费领取

  • 23
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 离散多目标优化算法(Discrete Multi-objective Grey Wolf Optimizer,DMOGWO)是一种应用于离散问题的多目标优化算法,基于优化算法(Grey Wolf Optimizer,GWO)的思想。与传统的多目标优化算法相比,DMOGWO具有更好的搜索能力和收敛性能。 DMOGWO的基本思想是通过模拟社会的捕食行为来进行搜索,以寻找离散问题的最优解集。算法的初始化步骤是选择种群的大小、确定的位置和目标函数的个数等参数。接下来,根据的位置和目标函数值,计其适应度。然后,根据适应度值选择的领导者,并更的位置和速度。在位置的过程中,利用既有的信息和与其它的交互信息进行位置迁移和搜索调整,以达到全局最优解的寻找目标。 DMOGWO的优点包括:1)具有较高的搜索能力,可以在较短的时间内找到问题的最优解集;2)具有自适应性,能够根据问题的特点自动调整参数和搜索策略;3)具有较好的收敛性能,可以在多目标搜索空间中有效收敛到最优解;4)具有较好的鲁棒性,对于不同类型的问题均可进行有效的搜索。 DMOGWO在Matlab中的实现较为简单,可以利用Matlab优化工具箱和优化算法的基本框架进行编程。首先,定义目标函数和问题约束条件;接着,设置算法的参数,包括种群大小、迭代次数、搜索范围等;最后,利用迭代循环和位置的过程,逐步寻找离散问题的最优解集。 总之,离散多目标优化算法是一种应用于离散问题的多目标优化算法,其基本思想是模拟社会的捕食行为来进行搜索。该算法具有较高的搜索能力和收敛性能,在Matlab中的实现较为简单,可以根据具体问题进行调整和优化。 ### 回答2: 离散多目标优化算法(Discrete Multi-Objective Grey Wolf Optimization Algorithm)是一种基于自然智能的多目标优化算法,它模拟了群体在猎食过程中的行为,并通过合理的搜索策略来寻找问题的最优解。 优化算法的基本思想是将解空间看作是群体的狩猎场景,在这个场景中通过个体的位置和适应度值来进行交流和合作。群体主要包含了一个Alpha(即最优解)、Beta(即次优解)和Delta(即次次优解),它们分别代表了群体中的最好解、次好解和次次好解。通过模拟之间的互动行为,算法可以通过迭代优化来逐步逼近最优解。 离散多目标优化算法的特点在于能够同时考虑多个决策变量和多个目标函数。对于离散问题,算法采用二进制编码的方式来表示解,在交换和变异操作中可以实现对解的改进。多目标问题的处理则采用了非支配排序和拥挤度距离的方法,通过保留一组非支配解来构建一个边界解集,并在选择操作中综合考虑了非支配排序和拥挤度距离,以保证搜索的多样性和收敛性。 在Matlab实现离散多目标优化算法,可以先通过一个随机初始种群来初始化个体,然后采用的迭代搜索策略对种群进行搜索。具体步骤包括初始化位置和适应度、计Alpha、Beta和Delta的位置、更位置、执行交换和变异操作、计适应度值和目标函数值、进行非支配排序和计拥挤度距离、选择个体等。通过迭代优化,最终可以得到一组Pareto最优解。 总之,离散多目标优化算法是一种有效的多目标优化方法,具有较好的性能和应用价值。在Matlab环境中实现算法可以通过合理的编程和调参来提高搜索效果,并应用于实际问题的优化求解。 ### 回答3: 离散多目标优化算法(Multi-objective Discrete Grey Wolf Optimizer,MODGWO)是一种基于优化算法的多目标优化算法。该算法在解决多目标优化问题时,将解空间划分为多个离散的解集,通过适应度函数对每个解集进行评估和选择。 离散多目标优化算法的步骤如下: 1. 初始化种群:设定种群大小、迭代次数等参数,随机生成初始种群,每一个个体都代表问题的一个解,并将它进行编码。 2. 确定领导:根据每个个体的适应度值,选择全局最优解。 3. 更群的位置:根据领导和其他之间的位置关系,更每个的位置。 4. 判断边界:若位置越界,则将的位置调整到合法的范围内。 5. 计个体适应度:通过目标函数计每个个体的适应度。 6. 更领导:根据多目标优化问题的要求,更领导。 7. 判断停止准则:根据预设的停止准则,判断是否达到了终止条件。 8. 选择更:根据适应度值和目标函数值,选择更群的个体。 9. 转到步骤3:重复执行步骤3到步骤8,直到达到终止条件。 离散多目标优化算法的优点是能够有效找到多个最优解,并且能够平衡不同目标之间的权衡关系。它在处理多目标优化问题时具有较高的搜索性能和收敛性。 在MATLAB实现离散多目标优化算法,可以使用适应度函数来计群中个体的适应度值,并使用循环结构来迭代更每个个体的位置。同时,还需要定义好种群大小、迭代次数等参数,并设定适当的终止条件。最终,算法会输出多个 Pareto 最优解,供用户选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值