基于相似性的动态区间多目标协同进化算法

A Similarity-based Cooperative Co-evolutionary Algorithm  for Dynamic Interval Multi-objective Optimization Problems

基于相似性的动态区间多目标协同进化算法

链接:https://ieeexplore.ieee.org/document/8694000

1.介绍

什么是动态区间多目标优化问题?

一个MOP会随着时间改变至少一个目标和(或)约束的区间参数(interval parameters)的范围,称此类问题为动态区间多目标优化问题(Dynamic interval multi-objective optimization problem  DI-MOP).

实际中含有区间特性的多目标优化问题的应用

A.炼钢连铸-热轧:包括各种不确定的生产过程(如处理时间、生产时间),区间目标(如吞吐量、热装比率、利用率、附加成本)

B.机器人路径规划:用于各种危险地方(如火场、雷区、敌区),危险源的具体位置无法实现,决策者只知道其范围。

C.虚拟发电厂最佳调度

D.飞机机架和汽车设计

E.家庭负荷调度 等

区间MOP常用解决方法:

将问题转化为确定的单目标(single-objective)或多目标(multi-objective)优化问题.

协同进化(Co-evolutionary)

合作协同进化算法(CCEA)将含有大量决策变量的优化问题分解为许多含有少量决策变量的子问题,然后通过子代来优化他们。

2.相关工作

A.动态区间多目标优化的数学模型表示如下:

鉴于c_i\left( t \right)是一个区间向量,则f_i\left( x,c_i\left( t \right) \right)是一个值在区间的目标,表示为,

c_i\left( t \right)通常随着时间改变,特殊的,如果c_i\left( t \right)退化为不随时间改变,那么Eq(1)→传统区间MOP

如果\underline{c_{ik}}\left( t \right) =\overline{c_{ik}}\left( t \right),对任意ik成立,那么Eq(1)→传统DMOP

B.偏序和支配关系

对(1)中两个解x_1,x_2\in D,他们第 i个目标值为 {f_i\left( x_1,c_i\left( t \right) \right) \,\,and\,\,f_i\left( x_2,c_i\left( t \right) \right) \,\,,i=1,2,...,m}

偏序关系(Order relation)

{ f_i\left( x_1,c_i\left( t \right) \right) <_{IN}f_i\left( x_2,c_i\left( t \right) \right) \Leftrightarrow \underline{f_i}\left( x_1,c_i\left( t \right) \right) \leqslant \underline{f_i}\left( x_2,c_i\left( t \right) \right) \land \overline{f_i}\left( x_1,c_i\left( t \right) \right) \leqslant \overline{f_i}\left( x_2,c_i\left( t \right) \right) \land f_i\left( x_1,c_i\left( t \right) \right) \ne f_i\left( x_2,c_i\left( t \right) \right) \,\,\left( 2 \right) }

不可比:{ f_i\left( x_1,c_i\left( t \right) \right) ||f_i\left( x_2,c_i\left( t \right) \right) }

{ <_{IN}}:偏序关系,反对称(antisymmetric)、自反的(reflexive)、传递的(transitive)

区间支配关系(Dominance relation)

{x_1\succ _{IP}x_2:if\,\,and\,\,ony\,\,if\,\,\forall i\in \left\{ 1,2,...,m \right\} ,f_i\left( x_1,c_i\left( t \right) \right) <_{IN}f_i\left( x_2,c_i\left( t \right) \right) \lor f_i\left( x_1,c_i\left( t \right) \right) ||f_i\left( x_2,c_i\left( t \right) \right) ,\exists i\in \left\{ 1,2,...,m \right\} ,f_i\left( x_1,c_i\left( t \right) \right) <_{IN}f_i\left( x_2,c_i\left( t \right) \right) }

如果{x_1,x_2}在区间内互不支配,记做{x_1||x_2}

支配关系首先被用来为每个解分配唯一的等级。然后对相同等级的解采用偏序关系和拥挤距离进行排序。最后,采用随机策略来求解无法通过上述方法区分的解。

C.求解区间MOPs的两种方法

I.将区间MOP转化为确定的单/多目标优化问题,然后利用EA求解转化后的问题

例如:郑等:将区间转换为最小最大优化问题,采用分层算法(由遗传算法和非线性编程方法);

           江等:基于中点和区间宽度将区间MOP转换为确定MOP,并进一步转化为未采用EA处理约束的单目标优化问题;

II.用EA直接处理基于区间支配关系的MOP

例如:林等:定义了一个基于区间偏序关系的区间Pareto支配关系解决MOP,此外提出了不精确传播的多目标进化算法(IP-MOEA)来解决区间MOP;

           本文:提出了一个基于区间概率和区间拥挤距离的Pareto支配关系,

           Sun等人:基于下限的区间Pareto支配关系 的概率,并用它来修改NSGA-II以解决区间MOP

           张等人:评估解的 概率支配关系,等

D.动态多目标优化算法

一般流程

(1) 初始化种群, 设置相关参数;

(2) 优化算法;

(3) 检测环境变化: 若检测到环境发生变化,则调用相关处理策略来响应; 否则继续执行优化算法;

(4) 响应环境变化的处理策略能对环境变化做出快速并且正确的响应, 使得种群能较快地收敛到最优解集。一般的处理策略有:重新初始化种群, 参数调整, 动态迁移, 记忆策略等;

(5) 终止判断条件。

一般求解方法

(1)将动态问题转化为静态问题:在时间序列上将动态问题划分成静态问题,然后再在每个特定的时间段进行优化,能有效降低算法的收敛难度
(2) 基于记忆的方法:通过记忆复用历史上的最优解来对新的环境变化做出快速响应, 但是这种方法比较适用于周期性变化的问题。
(3) 基于预测的方法:基于预测的方法是在每次环境变化之后, 通过预测机制, 为种群进化提供引导方向,  帮助算法对新变化做出快速响应, 预测的准确性是主要的难点。

基于种群的方法

(1)多种群策略:将整个种群分成若干个小种群, 其中一部分用于追踪当前的极值点, 另一部分继续搜索整个空间, 以发现新的极值点, 从而提升算法搜索效率。
(2) 保持种群多样性:一个好的动态多目标优化算法应该始终避免种群收敛, 保持种群的多样性, 因为一个发散的种群能够更容易适应环境中的变化, 容易使算法陷入局部收敛或者早熟。

评价指标

(1)反世代距离IGD:IGD(t)反映算法的收敛性和种群多样性。理想的IGD(t)值是零,意味着S(t)已经得到最好的收敛性和多样性。

(2)超体积比HVR:超体积比HVR是在超体积(Hyper Volume, HV)的基础上改进而来的, 反映算法保持多样性的能力, HVR(t)能够给出算法保持多样性的信息, 当S(t)和P*(t)重合时, HVR(t)的最大值为1。

因此, HVR(t)越大, 表明算法的多样性能越好。

{IGD\left( t \right) =\frac{\sum_{i=1}^{|P*\left( t \right) |}{d_i}}{|P*\left( t \right) |}} \\ { d_i=\underset{k=1}{\overset{|S\left( t \right) |}{\min}}\sqrt{\sum_{j=1}^M{\left( f_{j}^{*\left( i \right)}-f_{j}^{\left( k \right)} \right) ^2}}}            { HVR\left( t \right) =\frac{HV\left( S\left( t \right) \right)}{HV\left( p*\left( t \right) \right)}} \\ {HV=volume\left( U_{i=1}^{|S|}v_i \right) }

3.本文算法框架

DI-MOPS的双重特性:(1)每个目标都是一个区间;(2)目标区间参数随时间改变

A.The framework:

①将一个优化问题的所有的决策变量根据一个策略进行分解。

②子群与每个子群合作协同进化一个组中的决策变量以及一个完全解,然后进行个体适应性评估。

③选择非支配解,保存在档案中。

④使用基于区间相似度策略来检测优化问题是否改变。

⑤是,则使用响应和扰动策略来初始化子群。

⑥重复上述过程,直到满足终止条件。

⑦最终档案中完全非支配解作为DI-MOP最优解输出。

B.区间相似度

区间相似度{s\left( a,b \right) }定义:对两个区间 {a=\left[ \underline{a},\overline{a} \right] ,b=\left[ \underline{b},\overline{b} \right] }满足

{s\left( a,b \right) =\begin{cases} \frac{l_{a\cap b}}{\max \left\{ l_a,l_b \right\}},\max \left\{ l_a,l_b \right\} \ne 0\\ 1-\frac{|b-a|}{\max \left\{ |a|,|b|,\chi \left( |a|+|b| \right) \right\}},\\ \,\, \max \left\{ l_a,l_b \right\} =0,a\ne 0 or\,\,b\ne 0\\ 1, \max \left\{ l_a,l_b \right\} =0,a=b=0\\ \end{cases}}

其中{a\cap b}表示交集,{l_a,l_b,l_{a\cap b}}分别是区间a,b和交集的长度,

是特征函数。

{s\left( a,b \right) }反映了a和b之间的差异,满足{ 0\leqslant s\left( a,b \right) \leqslant 1},值越大,区间差异越小

C.分解决策变量

于DI-MOP的一个解,其中一些组件随着动态参数改变,其它的保持不变,若将决策变量分成两组并且独立的优化每个组,那么解决优化问题的效率将会提高。

由于差分分组策略无法直接用来检测决策变量与DI-MOP中参数之间的参数之间的相互作用,尤其是当参数是区间的时候。

例如:

可分离函数

满足{f\left( x,c \right) =\sum_{j=1}^J{f_j\left( x^j,c^j \right)}}

其中,{f_j\left( x^j,c^j \right) }{x^j\,\, and\,\, c^j\,\,}的相关函数,{ x^1,\cdots ,x^J\,\,and\,\,c^1,\cdots ,c^J}是互斥决策向量和参数向量。

对于一个可加分离区间函数{f\left( x,c\left( t \right) \right) },其差值为{\bigtriangleup f\left( x,c \right) ,}x_k有扰动变量\delta,即{\bigtriangleup f\left( x,c \right) =\left[ \bigtriangleup \underline{f\left( x,c \right) },\bigtriangleup \overline{f\left( x,c \right) } \right] ,}

其中{\bigtriangleup \underline{f\left( x,c \right) }=\underline{f\left( \cdots ,x_k+\delta ,\cdots ,c \right) }-\underline{f\left( \cdots ,x_k,\cdots ,c \right) }}{\bigtriangleup \overline{f\left( x,c \right) }=\overline{f\left( \cdots ,x_k+\delta ,\cdots ,c \right) }-\overline{f\left( \cdots ,x_k,\cdots ,c \right) }}

称,x_k{c_p\left( c_p\in c \right) }是不可分离的,满足:{s\left( \bigtriangleup f\left( x,c \right) \mid_{x_k=a,c_p=\left[ \underline{c_p},\overline{c_p} \right]}^{},\bigtriangleup f\left( x,c \right) \mid_{x_k=a,c_p=\left[ \underline{c_{p}^{\prime}},\overline{c_{p}^{\prime}} \right]}^{} \right) <1}

区间特性是有两个点(左端点和右端点),若在区间优化问题中仅使用一个点,那么另一个点所提供的信息将丢失,结果将不准确。

例如:{f\left( x,c\left( t \right) \right) =c\left( t \right) x},其中{c\left( t \right) =\left[ 1,1+t \right] ,\delta =0.5},那么{ \bigtriangleup _1=\bigtriangleup f\left( x,c\left( t \right) \right) _{x=3,c_p=\left[ 1,2 \right]}=\left[ 0.5,1 \right] }

{\bigtriangleup _2=\bigtriangleup f\left( x,c\left( t \right) \right) _{x=3,c_p=\left[ 1,3 \right]}=\left[ 0.5,1.5 \right] },如果仅使用左端点,那么结果没有区别,然而右端点差别很大。

根据不确定性和噪声的影响称x_k{c_p\left( c_p\in c \right) }不可分离,满足:{s\left( \bigtriangleup f\left( x,c \right) _{x_k=a,c_p=\left[ \underline{c_p},\overline{c_p} \right]},\bigtriangleup f\left( x,c \right) _{x_k=a,c_p=\left[ \underline{c_{p}^{\prime}},\overline{c_{p}^{\prime}} \right]} \right) <\theta _1}

\theta _1是预先设定的阀值,满足\theta _1\in \left( 0,1 \right)

A.在每一代末尾形成一个由从当前最优解中选择的许多个体组成的一个检测群体

B.计算基于过去和当前优化问题的检测群体中的每个个体的目标区间的相似度,并获得这些个体的平均 区间相似度。

C.把平均区间相似度和阀值{\theta _2\,\, \left( 0<\theta _2<1 \right) }进行比较,来确定优化问题的改变。其中\theta _2根据偏好设置,对环境越敏感,设置越大。

D.响应环境变化

(1)预测变化方向

重新评估时间序列t中的完全解A(t)和非支配解A0(t+1)

变化方向定义:

{D\left( t+1 \right) =\frac{C_{A_0\left( t+1 \right)}-C_{A\left( t \right)}}{||C_{A_0\left( t+1 \right)}-C_{A\left( t \right)}||_2}}

其中,{C_{A_0\left( t+1 \right)}C_{A\left( t \right)是决策空间A_0(t+1)A(t)的质心

(2)估计最优解变化步长

变化强度定义:

\overline{ds}\left( t+1 \right) =\frac{1}{m|A_0\left( t+1 \right) |}\sum_{i=1}^m{\sum_{j=1}^{|A_0\left( t+1 \right) |}{\left( 1-s_{ij} \right)}}

|A_0\left( t+1 \right) |A_0\left( t+1 \right)的大小,s_{ij}是先前和当前优化问题的第i个目标和第j个个体的相似度,\overline{ds}\left( t+1 \right)是所有个体的每个目标的平均相异度,越大优化问题变化越大。

使用最优解的历史信息,优化解的变化步长为:

S\left( t+1 \right) =\frac{\overline{ds}\left( t+1 \right)}{\overline{ds}\left( t \right)}||C_{A\left( t \right) -}C_{A\left( t-1 \right)}||_2

其中,\frac{\overline{ds}\left( t+1 \right)}{\overline{ds}\left( t \right)}是时间序列tt+1的变化强度的比例,越大说明t+1时刻的变化强度强于t时刻,S\left( t+1 \right)越大,变化步长越大。

(3)预测新位置

优化问题的位置:

对任意p\left( t \right) \in P^1\left( t \right)p\left( t+1 \right) =p\left( t \right) +rS\left( t+1 \right) D\left( t+1 \right) +\epsilon \left( t \right)r是服从均匀分布\left( \left[ 0,1 \right] \right)的随机值,\epsilon \left( t \right) \backsim N\left( 0,\sigma ^2\left( t \right) I \right)是高斯噪声,加入目的是提高初始种群覆盖优化问题变化的PS概率。

I是单位矩阵,\sigma \left( t \right)是标准高斯分布,满足\sigma \left( t \right) =\frac{S\left( t+1 \right)}{2\sqrt{n}}

对任意p\left( t \right) \in P^2\left( t \right)p\left( t+1 \right) =p\left( t \right) +\epsilon \left( t \right)

由于区间参数对其没有影响,P^2一半个体随机生成,其余高斯变异。

评估当前种群个体,通过从其他种群选择代表个体和当前个体形成一个完全解

E.时间复杂度

4.实验

A.性能指标

Average hyper-volume(AH):评估Pareto最优解的跟踪能力

AH=\left[ \underline{AH},\overline{AH} \right] =\frac{1}{|T|}\sum_{t\in T}^1{H\left( X*\left( t \right) \right)}

T是基数为|T|的时间集,X^*\left( t \right)表示在t时获得的PS\left( t \right),AH越大,越接近真实的PF\left( t \right)

Average impression(AI):反应不确定性

I\left( X*\left( t \right) \right) =\sum_{x\in X*\left( t \right)}{\sum_{i=1}^m{\left( \overline{f_i}\left( x,c_i\left( t \right) \right) -\underline{f_i}\left( x,c_i\left( t \right) \right) \right)}}

AI\,\,=\,\,\frac{1}{|T|}\sum_{t\in T}{I\left( X*\left( t \right) \right)}

AI越小,越接近真实PF\left( t \right)

B.测试函数

C.真实前沿

E.实验结果

五、总结

(1)本文提供了有关解决DI-MOPs的协同进化框架

(2)提出了对DI-MOP的决策变量进行分组并根据区间相似度检测其变化的策略;

(3)定义了优化问题的变化强度,并在此基础上提出了响应策略

(4)基于一组基准问题,实验研究了该算法的性能,并将该算法用于一个多阶段的投资组合选择问题。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值