【优化求解】基于粒子群算法求解多目标优化问题matlab源码

【优化求解】基于粒子群算法求解多目标优化问题matlab源码

 

1 算法介绍

1.1 关于速度和位置

粒子群算法通过设计一种无质量的粒子来模拟鸟群中的鸟,粒子仅具有两个属性:速度和位置,速度代表移动的快慢,位置代表移动的方向。

鸟被抽象为没有质量和体积的微粒(点),并延伸到N维空间,粒子i在N维空间的位置表示为矢量Xi=(x1,x2,…,xN),飞行速度表示为矢量Vi=(v1,v2,…,vN)。每个粒子都有一个由目标函数决定的适应值(fitness value),并且知道自己到目前为止发现的最好位置(pbest)和现在的位置Xi。这个可以看作是粒子自己的飞行经验。除此之外,每个粒子还知道到目前为止整个群体中所有粒子发现的最好位置(gbest)(gbest是pbest中的最好值),这个可以看作是粒子同伴的经验。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。

2.2 速度和位置的更新

PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。

img

对于公式(1):

公式(1)的第①部分称为【记忆项】,表示上次速度大小和方向的影响;

公式(1)的第②部分称为【自身认知项】,是从当前点指向粒子自身最好点的一个矢量,表示粒子的动作来源于自己经验的部分;

公式(1)的第③部分称为【群体认知项】,是一个从当前点指向种群最好点的矢量,反映了粒子间的协同合作和知识共享。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。

以上面两个公式为基础,再来看一个公式:

img

公式(2)和 公式(3)被视为标准PSO算法。

1.3 标准PSO算法的流程

1)初始化一群微粒(群体规模为N),包括随机位置和速度;

2)评价每个微粒的适应度;

3)对每个微粒,将其适应值与其经过的最好位置pbest作比较,如果较好,则将其作为当前的最好位置pbest;

4)对每个微粒,将其适应值与其经过的最好位置gbest作比较,如果较好,则将其作为当前的最好位置gbest;

5)根据公式(2)、(3)调整微粒速度和位置;

6)未达到结束条件则转第2)步。

迭代终止条件根据具体问题一般选为最大迭代次数Gk或(和)微粒群迄今为止搜索到的最优位置满足预定最小适应阈值。

## 4.2 PSO流程图解

img

2 部分代码

clc;
clear;
close all;
​
%% 问题定义,这里可以删除
​
TestProblem=1;   % Set to 1, 2, or 3
​
switch TestProblem
    case 1
        CostFunction=@(x) MyCost1(x);
        nVar=50;
        VarMin=0;
        VarMax=1;
        
    case 2
        CostFunction=@(x) MyCost2(x);
        nVar=3;
        VarMin=-5;
        VarMax=5;
        
    case 3
        CostFunction=@(x) MyCost3(x);
        nVar=2;
        VarMin=0;
        VarMax=1;
end
​
VarSize=[1 nVar];
​
VelMax=(VarMax-VarMin)/10;
​
%% MOPSO 设置
nPop=500;   % Population Size
​
nRep=100;   % Repository Size
​
MaxIt=500;  % Maximum Number of Iterations
​
phi1=2.05;%学习因子
phi2=2.05;
phi=phi1+phi2;
chi=2/(phi-2+sqrt(phi^2-4*phi));
​
w=chi;              % Inertia Weight
wdamp=1;            % Inertia Weight Damping Ratio
c1=chi*phi1;        % Personal Learning Coefficient
c2=chi*phi2;        % Global Learning Coefficient
​
alpha=0.1;  % Grid Inflation Parameter
​
nGrid=10;   % Number of Grids per each Dimension
​
beta=4;     % Leader Selection Pressure Parameter
​
gamma=2;    % Extra (to be deleted) Repository Member Selection Pressure
​
%% 初始化
​
particle=CreateEmptyParticle(nPop);
​
for i=1:nPop
    particle(i).Velocity=0;
    particle(i).Position=unifrnd(VarMin,VarMax,VarSize); %unifrnd在[VarMin,VarMax]区间模拟VarSize的数组
    % 初始化了自变量X的位置
    particle(i).Cost=CostFunction(particle(i).Position); % 求解目标函数
    particle(i).Best.Position=particle(i).Position;
    particle(i).Best.Cost=particle(i).Cost;
end
​
particle=DetermineDomination(particle);
​
rep=GetNonDominatedParticles(particle);
​
rep_costs=GetCosts(rep);
G=CreateHypercubes(rep_costs,nGrid,alpha);
​
for i=1:numel(rep)
    [rep(i).GridIndex rep(i).GridSubIndex]=GetGridIndex(rep(i),G);
end
    
%% MOPSO 主循环
​
for it=1:MaxIt
    for i=1:nPop
        rep_h=SelectLeader(rep,beta);
​
        particle(i).Velocity=w*particle(i).Velocity ...
                             +c1*rand*(particle(i).Best.Position - particle(i).Position) ...
                             +c2*rand*(rep_h.Position -  particle(i).Position);
​
        particle(i).Velocity=min(max(particle(i).Velocity,-VelMax),+VelMax);
​
        particle(i).Position=particle(i).Position + particle(i).Velocity;
    
        flag=(particle(i).Position<VarMin | particle(i).Position>VarMax);    %非劣检查:flag
        particle(i).Velocity(flag)=-particle(i).Velocity(flag);
        
        particle(i).Position=min(max(particle(i).Position,VarMin),VarMax);
​
        particle(i).Cost=CostFunction(particle(i).Position);
​
        if Dominates(particle(i),particle(i).Best)
            particle(i).Best.Position=particle(i).Position;
            particle(i).Best.Cost=particle(i).Cost;
            
        elseif ~Dominates(particle(i).Best,particle(i))
            if rand<0.5
                particle(i).Best.Position=particle(i).Position; 
                particle(i).Best.Cost=particle(i).Cost;
            end
        end
​
    end
    
    particle=DetermineDomination(particle);
    nd_particle=GetNonDominatedParticles(particle);
    
    rep=[rep
         nd_particle];
    
    rep=DetermineDomination(rep);
    rep=GetNonDominatedParticles(rep);
    
    for i=1:numel(rep)
        [rep(i).GridIndex rep(i).GridSubIndex]=GetGridIndex(rep(i),G);
    end
    
    if numel(rep)>nRep
        EXTRA=numel(rep)-nRep;
        rep=DeleteFromRep(rep,EXTRA,gamma);
        
        rep_costs=GetCosts(rep);
        G=CreateHypercubes(rep_costs,nGrid,alpha);
        
    end
   
%     disp(['Iteration ' num2str(it) ': Number of Repository Particles = ' num2str(numel(rep))]);
    
    w=w*wdamp;
end
​
%% 结果
​
costs=GetCosts(particle);
rep_costs=GetCosts(rep);
​
figure;
​
plot(costs(1,:),costs(2,:),'b.');
hold on;
plot(rep_costs(1,:),rep_costs(2,:),'rx');
legend('Main Population','Repository');
​

3 仿真结果

4 参考文献

[1]王越, 吕光宏. 改进的粒子群求解多目标优化算法[J]. 计算机技术与发展, 2014, 000(002):42-45.

5 代码下载

 

粒子群算法(Particle Swarm Optimization, PSO)是一种基于群体智能的优化算法,常用于解决传感器覆盖优化问题。下面是使用Matlab实现PSO算法求解传感器覆盖优化问题源码示例。 ```matlab function [bestPosition, bestFitness] = PSO(sensorPositions, targetPositions, numParticles, numIterations) % 粒子群算法求解传感器覆盖优化问题 % 输入参数: % sensorPositions - 传感器位置矩阵,每一行表示一个传感器的位置 % targetPositions - 目标位置矩阵,每一行表示一个目标的位置 % numParticles - 粒子数 % numIterations - 迭代次数 % 输出参数: % bestPosition - 最优解(传感器位置) % bestFitness - 最优解对应的适应度值 % 初始化粒子位置和速度 numSensors = size(sensorPositions, 1); positions = rand(numParticles, numSensors); velocities = rand(numParticles, numSensors); % 初始化个体最优位置和适应度值 pBestPositions = positions; pBestFitnesses = evaluateFitness(pBestPositions, sensorPositions, targetPositions); % 寻找全局最优位置和适应度值 [bestFitness, bestParticle] = min(pBestFitnesses); bestPosition = pBestPositions(bestParticle, :); % 迭代更新粒子位置和速度 for iter = 1:numIterations inertiaWeight = 0.5; % 惯性权重 cognitiveWeight = 1; % 认知权重 socialWeight = 1; % 社会权重 % 更新速度 velocities = inertiaWeight * velocities + ... cognitiveWeight * rand(numParticles, numSensors) .* (pBestPositions - positions) + ... socialWeight * rand(numParticles, numSensors) .* (repmat(bestPosition, numParticles, 1) - positions); % 更新位置 positions = positions + velocities; % 限制粒子位置在取值范围内 positions = max(positions, 0); positions = min(positions, 1); % 更新个体最优位置和适应度值 fitnesses = evaluateFitness(positions, sensorPositions, targetPositions); updateIndices = fitnesses < pBestFitnesses; pBestPositions(updateIndices, :) = positions(updateIndices, :); pBestFitnesses(updateIndices) = fitnesses(updateIndices); % 更新全局最优位置和适应度值 [minFitness, minParticle] = min(pBestFitnesses); if minFitness < bestFitness bestFitness = minFitness; bestPosition = pBestPositions(minParticle, :); end end end function fitnesses = evaluateFitness(positions, sensorPositions, targetPositions) % 计算适应度值 numParticles = size(positions, 1); fitnesses = zeros(numParticles, 1); for i = 1:numParticles selectedSensors = sensorPositions(positions(i, :) > 0.5, :); coveredTargets = zeros(size(targetPositions, 1), 1); for j = 1:size(selectedSensors, 1) distances = sqrt(sum((repmat(selectedSensors(j, :), size(targetPositions, 1), 1) - targetPositions).^2, 2)); coveredTargets(distances <= positions(i, j)) = 1; end fitnesses(i) = sum(coveredTargets) / size(targetPositions, 1); end end ``` 上述代码为一个函数,输入传感器位置矩阵、目标位置矩阵、粒子数和迭代次数,输出最优解(传感器位置)和最优解对应的适应度值。具体实现过程如下: 1. 首先,根据传感器位置矩阵的行数获得传感器数目,并初始化粒子位置和速度矩阵。 2. 初始化个体最优位置矩阵和适应度值矩阵,各自与粒子位置矩阵相同。 3. 初始化全局最优适应度值和最优粒子索引,分别为个体最优适应度值矩阵的最小值和对应索引。 4. 开始迭代更新,根据惯性权重、认知权重和社会权重,更新粒子速度和位置。 5. 更新粒子位置后,将超过取值范围的位置调整回区间[0,1]内。 6. 针对所有粒子,计算每个粒子对应的适应度值,并更新个体最优适应度值和位置。 7. 更新个体最优适应度值和位置后,检查是否有更优解出现,若有则更新全局最优适应度值和位置。 8. 迭代结束后,返回最优解(传感器位置)和最优解对应的适应度值。 使用以上源码,可以求解传感器覆盖优化问题
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Matlab科研辅导帮

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值