一、理论基础
1、政治优化算法
受政治多阶段过程的启发,文献[1]提出了一种新的全局优化算法——政治优化算法(Political Optimizer, PO)。
具体数学模型请参考文献[1]。
2、PO算法执行过程
PO算法伪代码如图1所示。
二、仿真实验与结果分析
将PO与DE、WOA、PSO和GWO进行对比,以文献[1]中表3的F6、F7、F8、F9(单峰函数/50维)和表4的F35、F36、F37、F38(多峰函数/50维)为例,实验设置种群规模为30,最大迭代次数为300,每种算法独立运算30次,结果显示如下:
函数:F6
PO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0
WOA:最差值: 4.2623, 最优值: 1.176, 平均值: 2.5067, 标准差: 0.82135
DE:最差值: 0.82247, 最优值: 0.050423, 平均值: 0.19609, 标准差: 0.13962
PSO:最差值: 6375.1108, 最优值: 2138.9588, 平均值: 3757.4411, 标准差: 932.5996
GWO:最差值: 4.292, 最优值: 2.0156, 平均值: 3.1155, 标准差: 0.67257
函数:F7
PO:最差值: -275, 最优值: -275, 平均值: -275, 标准差: 0
WOA:最差值: -275, 最优值: -275, 平均值: -275, 标准差: 0
DE:最差值: -269, 最优值: -275, 平均值: -273.4667, 标准差: 1.907
PSO:最差值: -165, 最优值: -253, 平均值: -203.9, 标准差: 20.9142
GWO:最差值: -172, 最优值: -216, 平均值: -197.6333, 标准差: 11.0219
函数:F8
PO:最差值: 9.8891e-190, 最优值: 5.0667e-234, 平均值: 3.2966e-191, 标准差: 0
WOA:最差值: 420524.4628, 最优值: 166377.8854, 平均值: 245160.4454, 标准差: 51537.111
DE:最差值: 87679.1358, 最优值: 46888.8513, 平均值: 73555.5448, 标准差: 7817.0519
PSO:最差值: 27565.6417, 最优值: 8060.5828, 平均值: 16528.7421, 标准差: 5023.5259
GWO:最差值: 187.0318, 最优值: 0.68831, 平均值: 32.7232, 标准差: 40.2301
函数:F9
PO:最差值: 2.2688e-125, 最优值: 5.2214e-135, 平均值: 7.6487e-127, 标准差: 4.1408e-126
WOA:最差值: 2.9498e-27, 最优值: 2.7252e-33, 平均值: 1.7716e-28, 标准差: 5.9647e-28
DE:最差值: 315.7905, 最优值: 0.74046, 平均值: 36.0737, 标准差: 81.9804
PSO:最差值: 1136.2618, 最优值: 680.269, 平均值: 952.5811, 标准差: 109.5768
GWO:最差值: 2.1806e-05, 最优值: 4.0765e-06, 平均值: 1.1314e-05, 标准差: 4.6099e-06
函数:F35
PO:最差值: -1958.3083, 最优值: -1958.3083, 平均值: -1958.3083, 标准差: 4.6252e-13
WOA:最差值: -1413.0717, 最优值: -1955.6329, 平均值: -1771.4122, 标准差: 188.0284
DE:最差值: -1717.932, 最优值: -1901.6017, 平均值: -1812.0802, 标准差: 41.5355
PSO:最差值: -1367.6948, 最优值: -1574.1501, 平均值: -1474.3787, 标准差: 52.1501
GWO:最差值: -1219.0685, 最优值: -1601.5182, 平均值: -1356.9039, 标准差: 92.5855
函数:F36
PO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0
WOA:最差值: 0.23065, 最优值: 0, 平均值: 0.0076883, 标准差: 0.042111
DE:最差值: 0.048842, 最优值: 0.0021395, 平均值: 0.011384, 标准差: 0.010118
PSO:最差值: 2.6418, 最优值: 1.506, 平均值: 1.9902, 标准差: 0.26426
GWO:最差值: 0.034662, 最优值: 9.136e-13, 平均值: 0.0032037, 标准差: 0.0087804
函数:F37
PO:最差值: 1.075e-51, 最优值: -1, 平均值: -0.8, 标准差: 0.40684
WOA:最差值: 7.8114e-20, 最优值: -1, 平均值: -0.23333, 标准差: 0.43018
DE:最差值: 1.6231e-21, 最优值: 1.7482e-22, 平均值: 7.3266e-22, 标准差: 4.0405e-22
PSO:最差值: 1.3044e-19, 最优值: 1.2635e-20, 平均值: 3.7831e-20, 标准差: 2.8772e-20
GWO:最差值: 3.7056e-21, 最优值: 1.0017e-22, 平均值: 4.6633e-22, 标准差: 6.864e-22
函数:F38
PO:最差值: 1.2074e-20, 最优值: 1.2074e-20, 平均值: 1.2074e-20, 标准差: 1.1841e-35
WOA:最差值: 5.6045e-20, 最优值: 1.2074e-20, 平均值: 1.8909e-20, 标准差: 1.2452e-20
DE:最差值: 8.0421e-18, 最优值: 1.1396e-19, 平均值: 8.07e-19, 标准差: 1.5607e-18
PSO:最差值: 9.1109e-14, 最优值: 2.6887e-16, 平均值: 1.1009e-14, 标准差: 1.9244e-14
GWO:最差值: 4.9025e-10, 最优值: 2.1153e-16, 平均值: 2.4358e-11, 标准差: 8.9515e-11
实验结果表明:PO算法的优化性能优于其他比较算法。
三、参考文献
[1] Qamar Askari, Irfan Younas, Mehreen Saeed. Political Optimizer: A novel socio-inspired meta-heuristic for global optimization[J]. Knowledge-Based Systems, 2020, 195: 105709.