参考文档链接:scikit-opt
本章开始Python的优化算法系列。
优化算法,尤其是启发式的仿生智能算法在最近很火,它适用于解决管理学,运筹学,统计学里面的一些优化问题。比如线性规划,整数规划,动态规划,非线性约束规划,甚至是超参数搜索等等方向的问题。
但是一般的优化算法还是matlab里面用的多,Python相关代码较少。博主在参考了很多文章的代码和模块之后,决定学习 scikit-opt 这个模块。这个优化算法模块对新手很友好,代码简洁,上手简单。而且代码和官方文档是中国人写的,还有很多案例,学起来就没什么压力...
缺点是包装的算法种类目前还不算多,只有七种:(差分进化算法、遗传算法、粒子群算法、模拟退火算法、蚁群算法、鱼群算法、免疫优化算法) /(其实已经够用了)
本次第一节带来的是差分进化算法的使用演示。数学原理就不多说了
首先安装模块,在cmd里面或者anaconda prompt里面输入:
pip install scikit-opt
这个包很小,很快就能装好。
差分进化算法
#定义有约束优化问题
'''
min f(x1, x2, x3) = x1^2 + x2^2 + x3^2
s.t.
x1*x2 >= 1
x1*x2 <= 5
x2 + x3 = 1
0 <= x1, x2, x3 <= 5
'''
定义上面这一段问题的代码:
def obj_func(p):
x1, x2, x3 = p
return x1 ** 2 + x2 ** 2 + x3 ** 2
constraint_eq = [
lambda x: 1 - x[1] - x[2]]
constraint_ueq = [
lambda x: 1 - x[0] * x[1],
lambda x: x[0] * x[1] - 5]
导入包,输入参数,将DE实例化:(这里三个未知变量X,使用变量维度是3)
from sko.DE import DE
de = DE(func=obj_func, n_dim=3, #目标函数和变量的维度
size_pop=50, max_iter=800, #种群规模的最大迭代次数
lb=[0, 0, 0], ub=[5, 5, 5], #变量的最小值和最大值的区间
constraint_eq=constraint_eq, #等式约束
constraint_ueq=constraint_ueq)#不等式约束
best_x, best_y = de.run(2000)
print('best_x:', best_x, '\n', 'best_y:', best_y)
这里的run(2000)里面代表的是迭代2千轮,确保收敛。
最后的结果:
这里默认的是寻找最小值,可以看到这个有约束优化问题的最小值为2,当且X1=1,X2=1,X3=0的时候取到。
参数详解
输入参数,很多都是默认好的。其中种群规模,变异概率,变异系数都是差分进化算法里面的参数
入参 | 默认值 | 意义 | |
---|---|---|---|
func | - | 目标函数 | |
n_dim | - | 目标函数的维度 | |
size_pop | 50 | 种群规模 | |
max_iter | 200 | 最大迭代次数 | |
prob_mut | 0.001 | 变异概率 | |
F | 0.5 | 变异系数 | |
lb | -1 | 每个自变量的最小值 | |
ub | 1 | 每个自变量的最大值 | |
constraint_eq | 空元组 | 等式约束 | |
constraint_ueq | 空元组 | 不等式约束 |
输出参数:
这里面的方法都记录了每次迭代的X和y,可以用里面的记录值去画图,展示不同迭代次数时y的变化。