带约束进化算法问题分析Constrained Evolutionary Algorithms

经典论文《Evolutionary Algorithms for Constrained Parameter Optimization Problems》对带约束的进化算法进行了综述,本文不涉及其内容的翻译,主要为个人对论文理解和思考。

1. 进化算法定义Evolutionary Algorithms

论文中所讨论的进化算法主要为以遗传算法genetic algorithms等传统进化算法,其解决的问题定义为一个寻优目标优化函数f(x)(最大值或最小值)的解x的问题:

opt:\hat{x}=argmin_{x} \ f(x)

其基本思路是根据种群进化的观点,为了达到最大化(或最小化)目标函数f(x),其大体的执行步骤为:

  1. 初始采样生成大量样本x;
  2. 根据目标函数f(x)排序,从中选择一定比例的样本x作为该轮胜出,对应于种群进化的自然选择;
  3. 上一轮胜出的样本,经过自身挠动(Mutation)和彼此交互(Crossover)得到一轮样本,对应于种群进化中基因变异和遗传繁衍;
  4. 重复2->3的过程,直到目标函数f(x)收敛。

遗传算法是一类典型的model-free的算法,其可以用黑盒的方式来解决很多目标函数优化的问题,带约束的优化问题,是指在优化的目标函数外,对样本x本身有约束条件,比如线性规划问题就是一类带约束的优化问题,其可以通过拉格朗日方法来解决。带约束的优化问题可以定义为,下式中h_j(x)\leq B表示某一约束条件。

opt:\hat{x}=argmin_{x} \ f(x) ,\exists \ h_j(x)\leq B,\text{ for j in }[1,2,...n]

论文发表于近30年前,虽然当前的进化学习有了很大的发展,不仅仅只是遗传算法,其很多算法已经过时,但是其对于model-free带约束的优化问题的解决思路仍然很值得学习。

2. 带约束的进化学习解决思路

A)构造满足约束的样本法

这种方法的思路是指在构造样本时,强制使其满足约束条件,同时在进化中,设计合理的挠动算子使其下轮的样本也天然满足约束条件,此时就能将问题转换为不带约束的优化问题。这种方法大概有两种思路:

  • 当约束条件均为线性的情况下(即可行解空间是凸的),通过初始化大量的满足约束的解,设计合理的进化挠动算子,使其下轮的样本也天然满足约束条件,在线性约束情况下,进化挠动算子满足如下条件得到的下轮样本必然也是满足约束的。

x^{t+1}_k = a * x^{t}_i + (1-a)*x^{t}_j, \ 0\leq a \leq 1

  • 当约束条件不是线性的情况下,我们基于这样的假设:最优点往往位于约束边界上的位置。所以在初始化时,大量筛选恰好满足约束条件的样本,在进化挠动时,根据约束条件合理设计自身挠动(Mutation)算子和彼此交互(Crossover)算子,使下轮样本必然也是满足约束的。论文中给出了如下非线性约束例子:
    • \prod_i^K x_i=b \rightarrow (x_i)(x_j) = (x^\alpha _ix^(1-\alpha) _j),\ 0\leq \alpha \leq 1
    • \sum^K_i x^2_i = 1\rightarrow x_n=\sqrt{\alpha x^2_i + (1-\alpha )x^2_j},\ 0\leq \alpha \leq 1

B) 基于惩罚函数penalty functions的方法

这种方法的思路是原来的优化目标函数的基础上添加了惩罚项,类似于拉格朗日方法,惩罚项一般同约束项的偏离程度有关,其大体上分为如下思路:

  • 静态惩罚权重:是指对不同约束项的偏离程度添加不同的权重值R,下式中f(x)表示原来的优化目标函数,j表示约束条件的标号,h(x)表示同约束项的偏离程度,i表示偏离等级(约束项在比较接近的情况下权重值R可以低一些,但当偏离特别夸张时可以放大)。这个静态惩罚权重最大的问题是当约束项太多时,权重参数也会很多。

Eval(x) = f(x) + \sum_j R_{ij}|h_j(x)|^2

  • 动态惩罚项:在静态惩罚项的基础上添加随迭代时间增强的系数,论文中给出一种如下基础形式,基中r,α,β都是超参数,t是迭代轮数

Eval(x) = f(x) + (r*t)^{\alpha }\sum_j |h_j(x)|^\beta

  • 退火惩罚项:也是一种动态惩罚项,基于了模拟退火的理论。

  • 自适应惩罚项:其基于的思想是如果最优个体持续不满足约束项,则加大惩罚,如果最优个体持续满足约束项,则减少惩罚,论文中给出一种形式如下,其中λ是惩罚项的权重值,S满足约束项的样本,β都是超参数。

\begin{cases} & \frac{1}{\beta_1}\lambda(t) \text{ if } \hat{x_j} \in S, \text{ for all } t-k+1\leq j\leq t\\ &\beta_2 \lambda(t)\text{ if } \hat{x_j} \in \bar{S}, \text{ for all } t-k+1\leq j\leq t \\ & \lambda(t) \text{ if } other \end{cases}

  • 双组惩罚项选优法:这种方法基于这样的思想:当惩罚项较小时,得到解虽然目标函数值高,但约束项很难满足,而惩罚项较大时,约束项能满足而目标函数往往不是最优。因此分别设计两个优化任务,一个惩罚项较小,另一个惩罚项较大,分别各自生成一组最优样本,然后结合生成子样本。这种方法认为惩罚项较小的解往往分布在不可用空间,惩罚项较小的解往往分布在可用空间,两者结合会逼近不可用空间和可用空间的边界,而最优解很多情况下都是在这个边界上。
  • 绝对惩罚法:这种方法是对不可行约束项添加一个较大惩罚项,其使得所有可行解的优化函数都比所有不可行解的优化函数要大:

Eval(x) > Eval(y), \text{ if } x\in S, y\in \bar{S}

C) 基于对可行解搜索的方法

这种方法的思路是从可行空间的解出发去搜索最优解,其大体上分为如下几类:

  • 行为记忆法behavioral memory method:这种方法针对于约束条件很多的情况下,先寻找到基本能满足一个约束条件的解空间,然后依次在该空间继续寻找满足剩下约束条件的解,直到到最后约束条件时,直接寻找满足所有约束条件的目标函数最优的解。这种方法通过不断压缩可行解空间的方式,当样本足够的情况下能拟合多约束条件解空间边界。
    • 只考虑满足约束1下进行寻优,直到解空间中特定比例的样本都满足约束1;
    • 在上轮样本空间上,只考虑满足约束2下进化寻优,直到解空间中特定比例的样本都满足约束2;
    • 重复上述过程直到最后一个约束条件,只考虑优化目标函数,筛选满足所有约束的样本。
  • 不可用样本修复法:这种方法将样本分成仅满足线性约束的空间P_l和满足全部约束的空间P_r,其中P_l提供了虽不完全可行但更为贴近最优目标f(x)的样本,而P_r提供完全满足约束的解。所以通过将P_lP_r的样本进行cross加工,使其保留两部分的特性,其主要的执行要点如下:
    • 初始满足线性约束的空间P_l并评估其目标f(x),初始化方式可以采用上方A中提到的方法
    • 初始化满足全部约束的空间P_r并评估其目标f(x)
    • P_l中筛选样本解,目标函数f(x)更高的有更大机率被选中
    • 评估P_l中的样本s_l,如果s_l不可行,则根据P_r中的可行样本s_r做cross修复加工得到s'_l
    • 选择s_r经过反复加工直到s'_l是可行的,当f(s'_l)> f(s_r)则将用s'_l替换P_r空间的s_r,同时一定比例的用s'_l替换P_l空间的s_l,以增加P_l空间的变动性。
    • P_r空间迭代是在P_l空间每经过k轮迭代后进行的,因为P_r主要是用于修复加工,而P_l才是用于搜索。其迭代过程为生成(根据上轮P_r生成当前样本)、评估(评估其目标函数值)、筛选(按目标函数排序筛选满足约束的解) 

D) 其他方法

  • 混合法:这种方法是将进化算法与其中确定性的数值计算结合起来,比如针对于存在大量局部最优点的非凸优化问题,可以先通过进化学习找到全局最优点的附近位置,然后再通过类似于梯度下降法的数值计算的方式更精确找到最优点。
  • 多目标优化法:这种方法是将优化函数和约束项偏离值以一个向量表示,将其视为一个多目标优化问题。
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值