约束优化 —— UDE

一、背景介绍

1.1 问题介绍

约束优化在现实世界中很常见。解决约束优化问题具有挑战性,因为约束将搜索空间分为两部分:不可行搜索空间和可行搜索空间。

一个约束实参优化问题可以被描述为:

m i n   f ( x ) s u b j e c t   t o { g i ( x ) ≤ 0 , ∀   i = 1 , 2 , . . . q h j ( x ) = 0 , ∀   j = q + 1 , . . . m min\ f(x)\quad subject\ to \begin{cases}g_i(x)\le0,\forall\ i=1,2,...q\\h_j(x)=0, \forall\ j=q+1,...m\end{cases} min f(x)subject to{gi(x)0, i=1,2,...qhj(x)=0, j=q+1,...m

其中, x ∈ ℜ D x\in \Re^D xD 是向量 x = ( x 1 , x 2 , . . . , x D ) x=(x_1,x_2,...,x_D) x=(x1,x2,...,xD) D D D 表示问题维度。 x x x 具有边界约束 [ x j , m i n , x j , m a x ] [x_{j,min}, x_{j,max}] [xj,min,xj,max] j = 1 , 2 , . . . , D j=1,2,...,D j=1,2,...,D. 约束函数包括了 q q q 个不等式约束和 m − q m-q mq 个等式约束。

∣ h j ( x ) ∣ − ε ≤ 0 |h_j(x)|-\varepsilon\le0 hj(x)ε0 时,即认为满足等式约束, ε \varepsilon ε 通常设置为 1 × 1 0 − 4 1\times10^{-4} 1×104.

1.2 DE 变种介绍

“DE/rand/1”: v i = x i 1 + F ⋅ ( x i 2 − x i 3 ) v_i=x_{i_1}+F\cdot(x_{i_2}-x_{i_3}) vi=xi1+F(xi2xi3) 最广泛使用,但是收敛慢,没有用到 x b e s t x_{best} xbest的信息

“DE/best/1”: v i = x b e s t + F ⋅ ( x i 1 − x i 2 ) v_i=x_{best}+F\cdot(x_{i_1}-x_{i_2}) vi=xbest+F(xi1xi2) 可能在许多问题上过早收敛

“DE/current-to-best/1”: v i = x i + F ⋅ ( x b e s t − x i ) + F ⋅ ( x i 1 − x i 2 ) ​ v_i=x_i+F\cdot(x_{best}-x{i})+F\cdot(x_{i_1}-x_{i_2})​ vi=xi+F(xbestxi)+F(xi1xi2)

“DE/best/2”: v i = x b e s t + F ⋅ ( x i 1 − x i 2 ) + F ⋅ ( x i 3 − x i 4 ) v_i=x_{best}+F\cdot(x_{i_1}-x_{i_2})+F\cdot(x_{i_3}-x_{i_4}) vi=xbest+F(xi1xi2)+F(xi3xi4)

“DE/rand/2”: v i = x i 1 + F ⋅ ( x i 2 − x i 3 ) + F ⋅ ( x i 4 − x i 5 ) ​ v_i=x_{i_1}+F\cdot(x_{i_2}-x_{i_3})+F\cdot(x_{i_4}-x_{i_5})​ vi=xi1+F(xi2xi3)+F(xi4xi5)

JADE 算法引入了 DE/current-to- p p pbest/1 变异策略(对“DE/current-to-best/1”一般化的改进),其核心思想是不仅利用最好解的信息,也利用了其他较好解的信息。以维持种群的多样新和避免过早收敛。在 JADE 中使用 x b e s t p x_{best}^p xbestp 代替 x b e s t x_{best} xbest,其中, x b e s t p x_{best}^p xbestp 是当前种群前 p % p\% p% 的个体 。此外,JADE 还利用参数自适应技术,根据成功的历史记录对突变因子和交叉概率进行演化。

DE 在不同问题上高度依赖目标向量的生成策略以及控制参数的设置( F F F C R CR CR),因此需要自适应的策略去选择变异策略以及控制参数。

jDE 算法在执行中自适应 F F F C R ​ CR​ CR

SaDE 算法自适应变异策略以及控制参数( F F F C R CR CR),策略池中包括了 DE/rand/1/bin, DE/rand/2/bin, DE/current-to-rand/1, and DE/rand-to-best/2/bin。通过学习之前一段时间生成有希望解的经验,逐步自适应目标向量的生成以及生成相关参数对应的概率。

CoDE 算法使用多个变异策略和多个控制参数组,随机结合生成新的目标向量。在 CoDE 中,策略池包括DE/rand/1/bin,DE/rand/2/bin,DE/current-to-rand/1。参数池包括三组控制参数:[F =1.0, CR=0.1], [F =1.0, CR=0.9], [F =0.8, CR=0.2]。在每一代中,策略池中的每一个变异策略和参数池中的任意一种相结合,形成目标向量,即,一个目标向量会生成三个子代向量,其中,最好的一个子代向量与父代竞争。

SaJADE 算法在 JADE 设置了参数自适应,并且整合了 SaM 策略适应方法。策略池中包括了 DE/current-to- p p pbest without archive, DE/current-to- p p pbest with archive, DE/rand-to- p p pbest without archive, and DE/rand-to- p p pbest with archive

Ranking-based Mutation:一般而言,DE 的变异算子使用的父代个体在当前种群中随机挑选。有一种观点认为,好的个体总是包含了好的信息,因此应该给他们更多的机会去引导其它个体。在 Ranking-based Mutation 中,一部分父代个体是根据他们在当前种群的排名按比例选取的。首先,对种群中的个体进行降序排序。随后,对每个个体分配排名 R i = N P − i , i = 1 , 2 , . . . , N P R_i=NP-i,i=1,2,...,NP Ri=NPi,i=1,2,...,NP,其中 N P NP NP 是种群大小,每个个体的选择概率 p i p_i pi 被计算为 p i = R i / N P , i = 1 , 2 , . . . , N P p_i=R_i/NP,i=1,2,...,NP pi=Ri/NP,i=1,2,...,NP。在 Ranking-based Mutation 中,只有 base vector 和 terminal point of the difference vector 依照选择概率选择,其他向量按照标准的 DE 算法选择。

在这里插入图片描述

用于解决约束优化的 DE 变种:

jDEsoco 算法使用 DE/best/1 变异策略,并以很小的概率重新初始化,使用 ϵ ​ \epsilon​ ϵ-比较处理约束。

ϵ \epsilon ϵDEag 算法提出了一种包括存档集,梯度变异,以及 ϵ ​ \epsilon​ ϵ-比较的方法。

ECHT-DE (DE with ensemble of constraint handling techniques)。

constraint-consensus mutation based DE 在进化搜索过程中帮助减少约束冲突的机制。

1.3 约束处理方法介绍

  1. 惩罚函数
  2. ϵ ​ \epsilon​ ϵ-比较
  3. 可行解方法的优越性

近年来,基于保留种群中的不可行解的方法在求解约束优化问题方面也显示了巨大的潜力

二、算法介绍

UDE (unified differential evolution) 结合了 CoDE、JADE、SaDE、基于排序的变异算子的主要特征,以及基于 DE 的局部搜索算子。

UDE 使用了一个策略池,包含了三个基于排序的变异策略,以及一个参数池,包含了两组控制参数设置。

UDE 的策略池中包括了 rank-DE/rand/1/bin,rank-DE/current-to-rand/1 和 rank-DE/current-to- p p pbest/1(没有二项式交叉算子)。

在每一代中,UDE将当前种群分为两个子种群。在 top 子种群中,UDE 对每个目标向量都使用了三种变异策略,类似于 CoDE。在 bottom 子种群中, UDE 采用了策略适应,变异策略将周期性学习顶部种群成功策略的经验。为了提高性能,UDE 周期性采用了基于局部搜索的 DE 算子。在约束处理上,UDE采用了静态惩罚函数

2.1 策略池

在 CoDE 算法所使用的变异策略中,没有能够提高开采效率的。因此在 UDE 中,使用了 DE/current-to- p p pbest/1 替代 DE/rand/2/bin 策略。

Ranking-based vector selection 被用于进一步提高开采性能,同时,对该算法做了部分修改:

在这里插入图片描述

base vector and terminal vector 是从当前种群(即:top种群)中选取个体,而不是全部种群。

因此,在 UDE 的策略池中包括 rank-DE/rand/1/bin, rank-DE/current-to-rand/1, and rank-DE/current-to- p p pbest/1。 其中,rank-DE 表示使用了算法 2 中的 ranking-based vector selection。ranking-based 的选择概率设置为 5% 时表现最好。

2.2 参数池

在 UDE 中,参数池包括两组:[F =0.9, CR=0.9] and [F =0.5, CR=0.5]。

2.3 策略适应

在 CoDE 中,每个目标向量对应 3 个子代向量,这会严重浪费评估次数。

因此在 UDE 中,每一代,分为两个子种群。在 top 子群中包括了 T T T 个成员,变异策略被用于每个目标向量,生成 3 个子代向量。子代向量相互比较,得到最佳子代向量的变异策略获胜。

每隔 L 代,计算各个变异策略在区间 L 代的成功率。在 L 代期间,bottom 子群包括了 N P − T NP-T NPT 个个体,依照上个阶段 top 子群的成功率来确定变异策略。

2.4 约束处理

在 UDE 中,使用静态惩罚函数来处理约束,每个个体 x i x_i xi 的适应值根据下式:

F ( x i ) = f ( x i ) + p e n a l t y   ∗   c v ( x i ) F(x_i)=f(x_i)+penalty\ *\ cv(x_i) F(xi)=f(xi)+penalty  cv(xi)

其中, F ( x i ) , f ( x i ) , c v ( x i ) F(x_i),f(x_i),cv(x_i) F(xi),f(xi),cv(xi) 分别表示个体 x i x_i xi 适应值,目标函数值,总约束冲突值。 p e n a l t y penalty penalty 是静态惩罚因子。

2.5 置换

在传统的 DE 算法中,父代和子代是一对一比较进入下一代,而在 UDE 中,是父代整体和子代整体结合起来,选择 N P NP NP 个个体进入下一代。

2.6 局部搜索

局部搜索策略可以显著提高 EAs 的性能。在 UDE 中,考虑了一个基于 DE 的局部搜索算子。

每隔 f L f_L fL 代,在当前种群中除了最优个体外的最好的 N L N_L NL 个个体实现一种 DE 变异策略 (没有交叉操作),如下:

x L , i = x i + F L ( x b e s t − x r 1 ) + F L ( x r 2 − x r 3 ) ​ x_{L,i}=x_i+F_L(x_{best}-x_{r_1})+F_L(x_{r_2}-x_{r_3})​ xL,i=xi+FL(xbestxr1)+FL(xr2xr3)

其中, x L , i x_{L,i} xL,i 是当前种群中第 i i i 个个体通过局部搜索生成的解, x b e s t x_{best} xbest 是当前种群的最优解, F L F_L FL 是变异因子, x r 1 , x r 3 x_{r_1},x_{r_3} xr1,xr3 是在当前全部种群中随机选择的个体, x r 2 x_{r_2} xr2 是使用修改的 ranking-based 向量选择策略,从当前种群的 top 子群中选择。

在使用局部搜索生成的 N L N_L NL 个个体中,最好的个体 x L x_L xL x b e s t x_{best} xbest 比较,如果 x L x_L xL 优于 x b e s t x_{best} xbest,最差的个体 x w o r s t x_{worst} xworst x L x_L xL 替代,否则,被 x b e s t x_{best} xbest 替代。随后根据适应值对种群重新排序。


[1] Trivedi A, Sanyal K, Verma P, et al. A unified differential evolution algorithm for constrained optimization problems[C]//2017 IEEE Congress on Evolutionary Computation (CEC). IEEE, 2017: 1231-1238.

  • 6
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值