粒子群算法改进——自适应惯性权重

适应度回顾

适应度用于评价粒子优劣,一般设置为目标函数值

众所周知

  • 一个较大的惯性权重有利于全局搜索
  • 一个较小的惯性权重有利于局部搜索

基本粒子群算法的粒子速度迭代公式:

vid=wvid-1+c1r1(pbestid-xid)+c2r2(gbestd-xid)

w是定值,代表粒子自身的惯性权重,但随着迭代次数的增加,问题的求解细节也会有所改变,固定值在整体求解的过程中存在不少缺陷。因而,引入变动的惯性权重,以动态适应问题的求解流程。以下是两种用自适应惯性权重求解问题的范例。

求解最小值问题

在这里插入图片描述
1、wmin和wmax是预设的最小与最大惯性系数,一般wmin取0.4,wmax取0.9
2、faveraged为第d次迭代时所有粒子的平均适应度
3、fmind=min{f(x1d),f(x2d),…,f(xn

  • 28
    点赞
  • 283
    收藏
    觉得还不错? 一键收藏
  • 16
    评论
以下是对标准粒子群、线性递减惯性权重粒子群、自适应惯性权重粒子群、随机惯性权重粒子群、压缩因子粒子群以及非对称学习因子粒子群算法在测试函数上的性能分析和相关 MATLAB 代码实现。 我们选用经典的 Sphere 函数和 Rosenbrock 函数作为测试函数,分别进行性能比较。 ## Sphere 函数 Sphere 函数的公式为: $$ f(x) = \sum_{i=1}^n x_i^2 $$ 其中 $n$ 表示维度,$x_i$ 表示第 $i$ 个自变量的取值。 我们首先定义标准粒子群算法 `PSO_standard`: ```matlab function [g_best, f_gbest] = PSO_standard(n, max_iter, lb, ub, c1, c2, w) % n: 粒子数 % max_iter: 最大迭代次数 % lb: 粒子位置下界 % ub: 粒子位置上界 % c1, c2: 学习因子 % w: 惯性权重 % 初始化粒子位置和速度 x = repmat(lb, n, 1) + rand(n, length(lb)) .* repmat((ub-lb), n, 1); v = zeros(n, length(lb)); % 计算每个粒子的适应度 f = arrayfun(@(i) sphere_func(x(i,:)), 1:n); % 初始化全局最优解和适应度 [f_pbest, idx] = min(f); p_best = x(idx, :); f_gbest = f_pbest; g_best = p_best; % 迭代优化 for iter = 1:max_iter % 更新每个粒子的速度和位置 for i = 1:n v(i,:) = w*v(i,:) + c1*rand(1,length(lb)).*(p_best(i,:) - x(i,:)) + c2*rand(1,length(lb)).*(g_best - x(i,:)); x(i,:) = x(i,:) + v(i,:); % 边界处理 x(i,:) = max(x(i,:), lb); x(i,:) = min(x(i,:), ub); end % 计算每个粒子的适应度 f = arrayfun(@(i) sphere_func(x(i,:)), 1:n); % 更新每个粒子的个体最优解 idx = f < f_pbest; p_best(idx,:) = x(idx,:); f_pbest(idx) = f(idx); % 更新全局最优解 [f_gbest, idx] = min(f_pbest); g_best = p_best(idx,:); end end % Sphere 函数 function y = sphere_func(x) y = sum(x.^2); end ``` 接下来是线性递减惯性权重粒子群算法 `PSO_linear_decrease`: ```matlab function [g_best, f_gbest] = PSO_linear_decrease(n, max_iter, lb, ub, c1, c2, w1, w2) % n: 粒子数 % max_iter: 最大迭代次数 % lb: 粒子位置下界 % ub: 粒子位置上界 % c1, c2: 学习因子 % w1, w2: 惯性权重下界和上界 % 初始化粒子位置和速度 x = repmat(lb, n, 1) + rand(n, length(lb)) .* repmat((ub-lb), n, 1); v = zeros(n, length(lb)); % 计算每个粒子的适应度 f = arrayfun(@(i) sphere_func(x(i,:)), 1:n); % 初始化全局最优解和适应度 [f_pbest, idx] = min(f); p_best = x(idx, :); f_gbest = f_pbest; g_best = p_best; % 迭代优化 for iter = 1:max_iter % 计算当前迭代的惯性权重 w = w1 - (w1-w2) * iter / max_iter; % 更新每个粒子的速度和位置 for i = 1:n v(i,:) = w*v(i,:) + c1*rand(1,length(lb)).*(p_best(i,:) - x(i,:)) + c2*rand(1,length(lb)).*(g_best - x(i,:)); x(i,:) = x(i,:) + v(i,:); % 边界处理 x(i,:) = max(x(i,:), lb); x(i,:) = min(x(i,:), ub); end % 计算每个粒子的适应度 f = arrayfun(@(i) sphere_func(x(i,:)), 1:n); % 更新每个粒子的个体最优解 idx = f < f_pbest; p_best(idx,:) = x(idx,:); f_pbest(idx) = f(idx); % 更新全局最优解 [f_gbest, idx] = min(f_pbest); g_best = p_best(idx,:); end end ``` 接下来是自适应惯性权重粒子群算法 `PSO_adaptive`: ```matlab function [g_best, f_gbest] = PSO_adaptive(n, max_iter, lb, ub, c1, c2, w1, w2, w_max, w_min) % n: 粒子数 % max_iter: 最大迭代次数 % lb: 粒子位置下界 % ub: 粒子位置上界 % c1, c2: 学习因子 % w1, w2: 初始惯性权重下界和上界 % w_max, w_min: 最大和最小惯性权重 % 初始化粒子位置和速度 x = repmat(lb, n, 1) + rand(n, length(lb)) .* repmat((ub-lb), n, 1); v = zeros(n, length(lb)); % 计算每个粒子的适应度 f = arrayfun(@(i) sphere_func(x(i,:)), 1:n); % 初始化全局最优解和适应度 [f_pbest, idx] = min(f); p_best = x(idx, :); f_gbest = f_pbest; g_best = p_best; % 迭代优化 for iter = 1:max_iter % 计算当前迭代的惯性权重 w = w1 - (w1-w2) * iter / max_iter; % 更新每个粒子的速度和位置 for i = 1:n % 计算当前粒子的自适应惯性权重 w_i = w_max - (w_max-w_min) * norm(v(i,:)) / norm(lb - ub); v
评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值