粒子群算法(PSO)解决函数优化问题
本文转载自:http://wenku.baidu.com/link?url=E6F5Nv6kW5nOQ2BD3mm4q5ld22o_pLQ48jPD-9N4q_1Sh-lJOrWVCo1Bc9SYB514goOOpXQJrk5sqTyzvrVthvnhXWqBnwzAMl4S8Miveka###
目录
引言
本文主要利用粒子群算法解决连续函数的最小值问题,粒子群优化是一种新兴的基于群体智能的启发式全局搜索算法,粒子群优化算法通过粒子间的竞争和协作以实现在复杂搜索空间中寻找全局最优点。它具有易理解、易实现、全局搜索能力强等特点,倍受科学与工程领域的广泛关注,已经成为发展最快的智能优化算法之一。本文介绍了粒子群优化算法的基本原理,分析了其特点,并将其应用于函数优化问题求解。
求函数最优值问题,对此问题,传统的优化技术很容易陷入局部最优解,求得全局优化解的概率不高,可靠性低;为此,建立尽可能大概率的求解全局优化解算法是求解函数优化的一个重要问题。本文采用粒子群算法来解决这类问题。
一、 问题描述
1.1 连续函数求最大值问题
本文主要选取一个三维函数,利用matlab编写粒子群算法程序来求解,以验证遗传算法在解决函数优化问题中的有效性。本文选取的函数为:f=x(1).^2+x(2).^2+x(3).^2,求它的最小值。
1.2 粒子群算法
PSO从这种模型中得到启示并用于解决优化问题。PSO 中,每个优化问题的潜在解都是搜索空间中的一只鸟,称之为粒子。所有的粒子都有一个由被优化的函数决定的适值( fitness value) ,每个粒子还有一个速度决定它们飞翔的方向和距离。然后粒子们就追随当前的最优粒子在解空间中搜索。
PSO初始化为一群随机粒子(随机解),然后通过迭代找到最优解。在每一次迭代中,粒子通过跟踪两个极值来更新自己;第一个就是粒子本身所找到的最优解,这个解称为个体极值;另一个极值是整个种群目前找到的最优解,这个极值是全局极值。另外也可以不用整个种群而只是用其中一部分作为粒子的邻居,那么在所有邻居中的极值就是局部极值。
假设在一个 维的目标搜索空间中,有 个粒子组成一个群落,其中第 个粒子表示为一个 维的向量
, 。
第 个粒子的“飞行 ”速度也是一个 维的向量,记为
, 。
第 个粒子迄今为止搜索到的最优位置称为个体极值,记为
, 。
整个粒子群迄今为止搜索到的最优位置为全局极值,记为
在找到这两个最优值时,粒子根据如下的公式(1.1)和( 1.2)来更新自己的速度和位置:
(1.1)
(1. 2)
其中: 和 为学习因子,也称加速常数(acceleration constant), 和 为[0,1]范围内的均匀随机数。式(1.1)右边由三部分组成,第一部分为“惯性(inertia)”或“动量(momentum)”部分,反映了粒子的运动“习惯(habit)”,代表粒子有维持自己先前速度的趋势;第二部分为“认知(cognition)”部分,反映了粒子对自身历史经验的记忆(memory)或回忆(remembrance),代表粒子有向自身历史最佳位置逼近的趋势;第三部分为“社会(social)”部分,反映了粒子间协同合作与知识共享的群体历史经验。
二、算法设计
这部分内容主要是针对本文主要研究问题的类型确定粒子群算法具体实现过程和一些参数的选择。
2.1算法流程框图
图1 粒子群算法流程图
2.2 算法实现
算法的流程如下:
① 初始化粒子群,包括群体规模 ,每个粒子的位置 和速度
② 计算每个粒子的适应度值 ;
③ 对每个粒子,用它的适应度值 和个体极值 比较,如果 ,则用 替换掉 ;
④ 对每个粒子,用它的适应度值 和全局极值 比较,如果 则用 替 ;
⑤ 根据公式(1.1),(1.2)更新粒子的速度 和位置 ;
⑥ 如果满足结束条件(误差足够好或到达最大循环次数)退出,否则返回②。
2.3 参数选择
本算法中主要的参数变量为 (惯性权值), , (加速因子),N (种群数),M (迭代次数),D (粒子维数)。
(1)种群规模
通常,种群太小则不能提供足够的采样点,以致算法性能很差;种群太大尽管可以增加优化信息,阻止早熟收敛的发生,但无疑会增加计算量,造成收敛时间太长,表现为收敛速度缓慢。种群规模一般设为100~1000。本文选择种群规模为100。
(2)最大迭代次数
迭代次数越多能保证解的收敛性,但是影响运算速度,本文选1000次。
(3)惯性权值
惯性权重 表示在多大程度上保留原来的速度。 较大,全局收敛能力强,局部收敛能力弱; 较小,局部收敛能力强,全局收敛能力弱。本文选0.6。
(4)加速因子
加速常数 和 分别用于控制粒子指向自身或邻域最佳位置的运动。文献[20]建议 ,并通常取 。本文也取 。
(5)粒子维数
本文中粒子维数取决于待优化函数的维数,例如本文取3。
需要说明的是,本文的程序允许改变这些参数,因为本文编写的程序参照matlab工具箱,留给用户解决这类问题一个接口函数,上述的各个参数正是接口函数的参数,因此允许改变。另外对于 和c也可采用变参数法,即随迭代次数增加,利用经验公式使它们动态调整,本文采用固定值。
三、程序设计
程序主要由两个m文件组成,pso.m是遗传算法接口文件,fitness.m是待求解的问题函数,只需要修改fitness.m里的目标函数就可实现不同问题的解。
(1)pso.m文件
function [xm,fv] = PSO(fitness,N,c1,c2,w,M,D)
%fitness-是要优化的目标函数,N-种群数,c1,c2-学习因子,w-惯性权重,M-迭代次数,D-粒子维数。
format long;
%初始化种群
for i=1:N
for j=1:D
x(i,j)=randn; %随机初始化位子
v(i,j)=randn; %随机初始化速度
end
end
%先计算各个粒子的适应度,并初始化pi-粒子个体极值和pg-全局极值
for i=1:N
p(i)=fitness(x(i,:));
y(i,:)=x(i,:);
end
pg = x(N,:); %pg为全局极值
for i=1:(N-1)
if fitness(x(i,:))<fitness(pg)
pg=x(i,:);
end
end
%进入粒子群算法主要循环
for t=1:M
for i=1:N
v(i,:)=w*v(i,:)+c1*rand*(y(i,:)-x(i,:))+c2*rand*(pg-x(i,:));
x(i,:)=x(i,:)+v(i,:);
if fitness(x(i,:))<p(i)
p(i)=fitness(x(i,:));
y(i,:)=x(i,:);
end
if p(i)<fitness(pg)
pg=y(i,:);
end
end
Pbest(t)=fitness(pg);
end
xm = pg';
fv = fitness(pg);
(2)目标函数fitness.m文件
function f=fitness(x)
f=x(1).^2+x(2).^2+x(3).^2 ;
end
需要说明的是,针对不同的函数优化,只需要改变目标函数就可以。
(3)在命令行输入或建立调用m文件
在命令行先后输入[xm,fv] = PSO(@fitness,100,2,2,0.6,1000,3),或建立包涵该语句的m文件,运行即可得到结果。
四、 结果与分析
4.1 实验结果
(1)对于目标函数f=x(1).^2+x(2).^2+x(3).^2 优化结果如下:
xm =1.0e-162 *
0.556163077454623
0.937292023592359
0.146573921409127
fv =0 , fv是最优值,xm为最优值对应的自变量值。
4.2 分析
通过对实验结果和已知最小值比较可知,该算法能有效解决这类问题,需要特别指出的是xm的取值只是近似值,另外,本文的粒子群算法程序只是实现粒子群算法的基本功能,该算法还有待进一步改进。
五、总结
本文利用粒子群算法思想,通过编写matlab程序,对一个三维连续函数进行优化得到了较好的仿真结果,证明粒子群算法在解决这类问题的可行性。另外,在编写本文的工作过程中,提高了自己对粒子群算法的理解和应用能力。为今后利用智能算法撰写论文或进行科学研究打下了很好地基础。