初探粒子群优化算法(PSO)

粒子群算法matlab实现:点击这里

粒子群优化算法简介

粒子群优化算法(PSO)最初是由Kennedy和Eberhart博士于1995年受人工生命研究的结果启发,在模拟鸟群觅食过程中的迁徙和群集行为时提出的一种基于群体智能的演化计算技术。
PSO是一种随机全局优化技术,通过粒子间的相互作用发现复杂搜索空间中的最优区域。由于PSO算法独特的优势,在工程领域中收到研究者的广泛关注。
PSO算法归根到底是一种利用随机法求多维函数特定区域的最值的算法。

PSO的优点

(1)相对于其他寻优算法,需要调整的参数较少。
(2)算法实现较为简单,效率较高。
(3)鲁棒性较好。
(4)相对于其他寻优算法,PSO容易收敛。

PSO的缺点

(1)易陷入局部最优解中
(2)难以得到精确的最优解
(3)PSO的机理性研究较少,缺乏严密的数学指导。

因此PSO算法适用于处理高维的,具有多个局部最优解的,对结果精确性要求不高的优化问题。

PSO的原理及基本概念

PSO的原理是模仿鸟群觅食的原理:
单个鸟→单个粒子
鸟群→有许多粒子组成的粒子群
鸟群的觅食行为→粒子群通过一定规律的随机运动,搜寻区域内的最优解

算法描述

在D维区域里存在m个粒子
其中第i个粒子的位置为一个矢量:xi={xi1 , xi2 , xi3…xiD}
其中第i个粒子的速度为一个矢量:vi={vi1 , vi2 , vi3 …viD}
第i个粒子搜索到的最优位置为:pi={pi1 , pi2 , pi3 …piD}
整个粒子群搜索到的最优位置为:pgbest={pgbest1 , pgbest2 , pgbest3 …{pgbestD}

第i个粒子在k次迭代时的速度为:
v i d k + 1 = ω v i d k + c 1 r 1 ( p i d − x i d k ) + c 2 r 2 ( p g b e s t d − x i d k ) v^{k+1}_{id}=ωv^{k}_{id}+c_1r_1(p_{id}-x^k_{id})+c_2r_2(p_{gbestd}-x^k_{id}) vidk+1=ωvidk+c1r1(pidxidk)+c2r2(pgbestdxidk)
其中i = 1,2,3…m ; d = 1,2,3…D
ω成为惯性参数;c1,c2称为学习因子,是一个正常数;r1,r2为随机数;等号右边的三项分别是:历史速度的记忆、认知部分、社会部分。

位置更新公式:
x i d k + 1 = x i d k + v i d k + 1 x^{k+1}_{id}=x^{k}_{id}+v^{k+1}_{id} xidk+1=xidk+vidk+1
每次更新的速度控制在一个最大速度vmax以下。

算法流程:

在这里插入图片描述算法终止条件有两种:
(1)达到最大迭代步数
(2)得到可接受的满意解

参数分析

(1)惯性参数ω:
ω代表对原先速度的记忆程度,依据原先的速度进行惯性运动。
较大的ω使粒子更易跳出局部最优解,获得更强的全局寻优能力,但也会使效率降低,不宜收敛;较小的ω容易陷入局部最优解,但更易收敛。

当问题空间较大时,ω不应为一个常数。在前期可以使ω较大以获得更强的全局寻优能力,后期ω变小可以提高收敛速度。这个功能可以由线性递减权值公式实现:
ω = ω m a x − ( ω m a x − ω m i n ) ∗ r u n r u n m a x ω=ω_{max}-(ω_{max}-ω_{min})*\frac{run}{run_{max}} ω=ωmax(ωmaxωmin)runmaxrun
(2)学习因子c1,c2
c1,c2分别代表粒子动作来自认知部分和社会部分的权重。
c1=0时,为无私型粒子群算法,丧失群体多样性,容易陷入局部最优解。
c2=0时,为自私型粒子群算法,没有信息的社会共享,收敛速度减慢。
c1>c2>0时,适用于多峰优化问题。
c2>c1>0时,适用于单峰优化问题。

自适应或动态加速度系数是基于迭代次数对两个系数进行动态调节。其中c1随代数增加而减小,c2随代数增加而增大。

c 1 = ( c 1 f − c 1 i ) t T M A X + c 1 i c_1=(c_{1f}-c_{1i})\frac{t}{T_{MAX}}+c_{1i} c1=(c1fc1i)TMAXt+c1i

c 2 = ( c 2 f − c 2 i ) t T M A X + c 2 i c_2=(c_{2f}-c_{2i})\frac{t}{T_{MAX}}+c_{2i} c2=(c2fc2i)TMAXt+c2i
其中 t t t T M A X T_{MAX} TMAX分别为迭代轮数和最大迭代轮数。
实验建议:c1f=0.5,c1i=2.5;c2f=2.5,c2i=0.5

(3)粒子的最大速度vmax
粒子最大速度:维护算法探索能力和开发能力的平衡。速度增大,粒子的探索能力增强,但容易飞过最优解。速度减小,开发能力较大,但容易陷入局部最优。

粒子群的拓扑结构

一种是将群体中所有粒子都作为粒子的邻域,这样的结构叫做全局粒子群算法这种结构下,粒子的认知部分是自己的历史最优解;社会部分是粒子全体的全局最优值。
另一种是将群体中的部分个体作为粒子的邻域,这样的结构叫做局部粒子群算法这种结构下,粒子的认知部分是自己的历史最优解;社会部分是粒子邻域内的全局最优值。

全局粒子群算法的收敛能力更强,但容易陷入局部最优解;局部粒子群算法全局寻优能力更强,但收敛速度较慢。

初始化时的前人经验

粒子数一般取20-40,对较难或特定类别的问题可以取100-200。
最大速度通常设定为粒子的范围宽度。
将c1和c2统一为一个控制参数φ=c1+c2。当φ=4.1时具有良好的收敛效果。
ω=0.7298和c1=c2=1.497时算法有较好的收敛性能。

  • 50
    点赞
  • 252
    收藏
    觉得还不错? 一键收藏
  • 10
    评论
以下是一个简单的粒子群优化算法PSO)的代码示例: ``` import random class Particle: def __init__(self, x0): self.position = [] self.velocity = [] self.best_position = [] self.fitness = -1 for i in range(0, num_dimensions): self.velocity.append(random.uniform(-1, 1)) self.position.append(x0[i]) def evaluate(self, cost_function): self.fitness = cost_function(self.position) if self.fitness < self.best_fitness: self.best_fitness = self.fitness self.best_position = self.position def update_velocity(self, best_global_position): w = 0.5 c1 = 1 c2 = 2 for i in range(0, num_dimensions): r1 = random.random() r2 = random.random() cognitive_velocity = c1 * r1 * (self.best_position[i] - self.position[i]) social_velocity = c2 * r2 * (best_global_position[i] - self.position[i]) self.velocity[i] = w * self.velocity[i] + cognitive_velocity + social_velocity def update_position(self, bounds): for i in range(0, num_dimensions): self.position[i] = self.position[i] + self.velocity[i] if self.position[i] > bounds[i][1]: self.position[i] = bounds[i][1] if self.position[i] < bounds[i][0]: self.position[i] = bounds[i][0] class PSO: def __init__(self, cost_function, x0, bounds, num_particles, max_iterations): global num_dimensions num_dimensions = len(x0) best_global_position = [] best_global_fitness = -1 swarm = [] for i in range(0, num_particles): swarm.append(Particle(x0)) for i in range(0, max_iterations): for j in range(0, num_particles): swarm[j].evaluate(cost_function) if swarm[j].fitness < best_global_fitness: best_global_fitness = swarm[j].fitness best_global_position = list(swarm[j].position) for j in range(0, num_particles): swarm[j].update_velocity(best_global_position) swarm[j].update_position(bounds) print('Best position:', best_global_position) print('Best fitness:', best_global_fitness) def cost_function(x): return sum([i**2 for i in x]) bounds = [(-10, 10), (-10, 10), (-10, 10)] PSO(cost_function, x0=[0, 0, 0], bounds=bounds, num_particles=15, max_iterations=30) ``` 这个代码演示了如何使用 PSO 来最小化一个简单的函数。需要注意的是,这个示例只展示了基本的 PSO 实现,实际上,PSO 还有很多改进和扩展,例如变异粒子群优化算法(MPSO)、共生进化粒子群优化算法(CEPSO)等等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值