【智能优化算法-灰狼算法】基于Cat混沌与高斯变异的灰狼优化算法求解单目标优化问题附Matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,matlab项目合作可私信。

🍎个人主页:Matlab科研工作室

🍊个人信条:格物致知。

更多Matlab仿真内容点击👇

智能优化算法  神经网络预测 雷达通信  无线传感器

信号处理 图像处理 路径规划 元胞自动机 无人机

⛄ 内容介绍

针对基本灰狼优化算法在求解复杂问题时同样存在依赖初始种群,过早收敛,易陷入局部最优等缺点,提出一种改进的灰狼优化算法应用于求解函数优化问题中.该算法首先利用混沌Cat映射产生灰狼种群的初始位置,为算法全局搜索过程的种群多样性奠定基础;同时引入粒子群算法中的个体记忆功能以便增强算法的局部搜索能力和加快其收敛速度;最后采用高斯变异扰动和优胜劣汰选择规则对当前最优解进行变异操作以避免算法陷入局部最优.对13个基准测试函数进行仿真实验,结果表明,与基本GWO算法,PSO算法,GA算法以及ACO算法相比,该算法具有更好的求解精度和更快的收敛速度.

⛄ 部分代码

%___________________________________________________________________%

%  Grey Wolf Optimizer (GWO) source codes version 1.0               %

%                                                                   %

%  Developed in MATLAB R2011b(7.13)                                 %

%                                                                   %

%  Author and programmer: Seyedali Mirjalili                        %

%                                                                   %

%         e-Mail: ali.mirjalili@gmail.com                           %

%                 seyedali.mirjalili@griffithuni.edu.au             %

%                                                                   %

%       Homepage: http://www.alimirjalili.com                       %

%                                                                   %

%   Main paper: S. Mirjalili, S. M. Mirjalili, A. Lewis             %

%               Grey Wolf Optimizer, Advances in Engineering        %

%               Software , in press,                                %

%               DOI: 10.1016/j.advengsoft.2013.12.007               %

%                                                                   %

%___________________________________________________________________%

% Grey Wolf Optimizer

function [Alpha_score,Alpha_pos,Convergence_curve]=GWO(SearchAgents_no,Max_iter,lb,ub,dim,fobj)

% initialize alpha, beta, and delta_pos

Alpha_pos=zeros(1,dim);

Alpha_score=inf; %change this to -inf for maximization problems

Beta_pos=zeros(1,dim);

Beta_score=inf; %change this to -inf for maximization problems

Delta_pos=zeros(1,dim);

Delta_score=inf; %change this to -inf for maximization problems

%Initialize the positions of search agents

Positions=initialization(SearchAgents_no,dim,ub,lb);

Convergence_curve=zeros(1,Max_iter);

l=0;% Loop counter

% Main loop

while l<Max_iter

    for i=1:size(Positions,1)  

        

       % Return back the search agents that go beyond the boundaries of the search space

        Flag4ub=Positions(i,:)>ub;

        Flag4lb=Positions(i,:)<lb;

        Positions(i,:)=(Positions(i,:).*(~(Flag4ub+Flag4lb)))+ub.*Flag4ub+lb.*Flag4lb;               

        

        % Calculate objective function for each search agent

        fitness=fobj(Positions(i,:));

        

        % Update Alpha, Beta, and Delta

        if fitness<Alpha_score 

            Alpha_score=fitness; % Update alpha

            Alpha_pos=Positions(i,:);

        end

        

        if fitness>Alpha_score && fitness<Beta_score 

            Beta_score=fitness; % Update beta

            Beta_pos=Positions(i,:);

        end

        

        if fitness>Alpha_score && fitness>Beta_score && fitness<Delta_score 

            Delta_score=fitness; % Update delta

            Delta_pos=Positions(i,:);

        end

    end

       

    a=2-l*((2)/Max_iter); % a decreases linearly fron 2 to 0

    

    % Update the Position of search agents including omegas

    for i=1:size(Positions,1)

        for j=1:size(Positions,2)     

                       

            r1=rand(); % r1 is a random number in [0,1]

            r2=rand(); % r2 is a random number in [0,1]

            

            A1=2*a*r1-a; % Equation (3.3)

            C1=2*r2; % Equation (3.4)

            

            D_alpha=abs(C1*Alpha_pos(j)-Positions(i,j)); % Equation (3.5)-part 1

            X1=Alpha_pos(j)-A1*D_alpha; % Equation (3.6)-part 1

                       

            r1=rand();

            r2=rand();

            

            A2=2*a*r1-a; % Equation (3.3)

            C2=2*r2; % Equation (3.4)

            

            D_beta=abs(C2*Beta_pos(j)-Positions(i,j)); % Equation (3.5)-part 2

            X2=Beta_pos(j)-A2*D_beta; % Equation (3.6)-part 2       

            

            r1=rand();

            r2=rand(); 

            

            A3=2*a*r1-a; % Equation (3.3)

            C3=2*r2; % Equation (3.4)

            

            D_delta=abs(C3*Delta_pos(j)-Positions(i,j)); % Equation (3.5)-part 3

            X3=Delta_pos(j)-A3*D_delta; % Equation (3.5)-part 3             

            

            Positions(i,j)=(X1+X2+X3)/3;% Equation (3.7)

            

        end

    end

    l=l+1;    

    Convergence_curve(l)=Alpha_score;

end

⛄ 运行结果

​⛄ 参考文献

[1]徐辰华, 李成县, 喻昕,等. 基于Cat混沌与高斯变异的改进灰狼优化算法[J]. 计算机工程与应用, 2017, 53(4):10.

❤️ 关注我领取海量matlab电子书和数学建模资料

❤️部分理论引用网络文献,若有侵权联系博主删除

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
以下是一个简的引入高斯变异的粒子群算法Matlab 程序: ```matlab % 参数设置 pop_size = 20; % 粒子群大小 max_iter = 100; % 迭代次数 w = 0.729; % 惯性权重 c1 = 1.49445; % 学习因子 c2 = 1.49445; % 学习因子 dim = 2; % 解向量维度 lb = [-10, -10]; % 解向量下界 ub = [10, 10]; % 解向量上界 sigma = 0.1; % 高斯变异参数 % 初始化粒子群 pop = repmat(lb, pop_size, 1) + rand(pop_size, dim) .* (repmat(ub, pop_size, 1) - repmat(lb, pop_size, 1)); vel = zeros(pop_size, dim); pbest = pop; pbest_fitness = inf(pop_size, 1); gbest = zeros(1, dim); gbest_fitness = inf; % 迭代寻优 for iter = 1 : max_iter % 更新速度和位置 r1 = rand(pop_size, dim); r2 = rand(pop_size, dim); vel = w .* vel + c1 .* r1 .* (pbest - pop) + c2 .* r2 .* (repmat(gbest, pop_size, 1) - pop); pop = pop + vel; % 高斯变异 pop = pop + sigma .* randn(pop_size, dim); % 边界处理 pop(pop < lb) = lb(pop < lb); pop(pop > ub) = ub(pop > ub); % 计算适应度 fitness = sum(pop .^ 2, 2); % 更新个体最优解和全局最优解 update = fitness < pbest_fitness; pbest(update, :) = pop(update, :); pbest_fitness(update) = fitness(update); [min_fitness, min_index] = min(pbest_fitness); if min_fitness < gbest_fitness gbest = pbest(min_index, :); gbest_fitness = min_fitness; end % 输出中间结果 disp(['Iter: ', num2str(iter), ', Best Fitness: ', num2str(gbest_fitness)]); end ``` 该程序根据高斯变异的粒子群算法的基本思想编写。首先,设置了一些参数,包括粒子群大小、迭代次数、惯性权重、学习因子、解向量维度、解向量的上下界和高斯变异参数。然后,初始化了粒子群,并进行了迭代寻优的过程。在每次迭代中,程序首先更新粒子的速度和位置,然后进行高斯变异,再进行边界处理,计算适应度,更新个体最优解和全局最优解,最后输出中间结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

matlab科研助手

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值