MOEA/D-RDG
A Random-Based Dynamic Grouping Strategy for Large Scale Multi-objective Optimization
A. Song, Q. Yang, W. N. Chen, and J. Zhang, “A random-based dynamic grouping strategy for large scale multi-objective optimization,” in IEEE Congress on Evolutionary Computation. IEEE, Jul. 2016, pp. 468–475.
摘要
提出了一种基于随机的动态分组策略(RDG),与合作协同进化框架一起来处理大规模多目标优化问题。随机动态分组策略(RDG)是将整个维度分解为若干等大小的变量组
算法
在 RDG
中,不仅每个组中的变量是动态确定的,而且组大小是从一个组大小池中动态选择的
1、RDG
首先,设置一个组大小池(group size pool) S
= {s1, s2, …, sk},包含 K
个不同的组大小;
然后,在每一代开始进化之前,将会从选择池中依概率选择一个分组的大小(size,而不是分组的个数,这是不同的)。公平起见,利用性能提升列表(performance improvement)来确定选择的概率,这反过来又会影响下一代对组大小的选择。这一段很是拗口,原文感受一下(To make a proper choice, we utilize the performance improvement that is caused by the usage of one group size to determine its probability, which in turn influences the selection of this group size in the next generation,但大意就是:分组影响了这一代的性能,根据特定的数学公式,重新计算性能提升列表中各个参数的值,再根据更新后的列表重新选择组的大小)
为了计算每一个组大小的概率,定义了一个性能改进列表 R = {r1, r2, …, rk},第 i 个分量对应于选择池 S
中的第 i 个组的大小。这个列表 R
用于记录每个组大小导致的相对性能改进。初始时,R
中的每个元素设为 1,表示在初始阶段,每个群体大小的选择概率相等。然后,在进化过程中,使用群体大小的相对性能改进(假设它是 si)可以以下面的公式 (1) 计算:
r i = C ( A , B ) = ∣ { u ∈ B ∣ ∃ ν ∈ A : ν ≺ u } ∣ N P r_i=C\left( A,B \right) =\frac{|\left\{ u\in B|\exists \nu \in A:\nu \prec u \right\} |}{NP} ri=C(A,B)=NP