基于政治优化算法的函数寻优算法

一、理论基础

1、政治优化算法

受政治多阶段过程的启发,文献[1]提出了一种新的全局优化算法——政治优化算法(Political Optimizer, PO)。
具体数学模型请参考文献[1]。

2、PO算法执行过程

PO算法伪代码如图1所示。
在这里插入图片描述

图1 PO算法伪代码

二、仿真实验与结果分析

将PO与DE、WOA、PSO和GWO进行对比,以文献[1]中表3的F6、F7、F8、F9(单峰函数/50维)和表4的F35、F36、F37、F38(多峰函数/50维)为例,实验设置种群规模为30,最大迭代次数为300,每种算法独立运算30次,结果显示如下:
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

函数:F6
PO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0
WOA:最差值: 4.2623, 最优值: 1.176, 平均值: 2.5067, 标准差: 0.82135
DE:最差值: 0.82247, 最优值: 0.050423, 平均值: 0.19609, 标准差: 0.13962
PSO:最差值: 6375.1108, 最优值: 2138.9588, 平均值: 3757.4411, 标准差: 932.5996
GWO:最差值: 4.292, 最优值: 2.0156, 平均值: 3.1155, 标准差: 0.67257
函数:F7
PO:最差值: -275, 最优值: -275, 平均值: -275, 标准差: 0
WOA:最差值: -275, 最优值: -275, 平均值: -275, 标准差: 0
DE:最差值: -269, 最优值: -275, 平均值: -273.4667, 标准差: 1.907
PSO:最差值: -165, 最优值: -253, 平均值: -203.9, 标准差: 20.9142
GWO:最差值: -172, 最优值: -216, 平均值: -197.6333, 标准差: 11.0219
函数:F8
PO:最差值: 9.8891e-190, 最优值: 5.0667e-234, 平均值: 3.2966e-191, 标准差: 0
WOA:最差值: 420524.4628, 最优值: 166377.8854, 平均值: 245160.4454, 标准差: 51537.111
DE:最差值: 87679.1358, 最优值: 46888.8513, 平均值: 73555.5448, 标准差: 7817.0519
PSO:最差值: 27565.6417, 最优值: 8060.5828, 平均值: 16528.7421, 标准差: 5023.5259
GWO:最差值: 187.0318, 最优值: 0.68831, 平均值: 32.7232, 标准差: 40.2301
函数:F9
PO:最差值: 2.2688e-125, 最优值: 5.2214e-135, 平均值: 7.6487e-127, 标准差: 4.1408e-126
WOA:最差值: 2.9498e-27, 最优值: 2.7252e-33, 平均值: 1.7716e-28, 标准差: 5.9647e-28
DE:最差值: 315.7905, 最优值: 0.74046, 平均值: 36.0737, 标准差: 81.9804
PSO:最差值: 1136.2618, 最优值: 680.269, 平均值: 952.5811, 标准差: 109.5768
GWO:最差值: 2.1806e-05, 最优值: 4.0765e-06, 平均值: 1.1314e-05, 标准差: 4.6099e-06
函数:F35
PO:最差值: -1958.3083, 最优值: -1958.3083, 平均值: -1958.3083, 标准差: 4.6252e-13
WOA:最差值: -1413.0717, 最优值: -1955.6329, 平均值: -1771.4122, 标准差: 188.0284
DE:最差值: -1717.932, 最优值: -1901.6017, 平均值: -1812.0802, 标准差: 41.5355
PSO:最差值: -1367.6948, 最优值: -1574.1501, 平均值: -1474.3787, 标准差: 52.1501
GWO:最差值: -1219.0685, 最优值: -1601.5182, 平均值: -1356.9039, 标准差: 92.5855
函数:F36
PO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0
WOA:最差值: 0.23065, 最优值: 0, 平均值: 0.0076883, 标准差: 0.042111
DE:最差值: 0.048842, 最优值: 0.0021395, 平均值: 0.011384, 标准差: 0.010118
PSO:最差值: 2.6418, 最优值: 1.506, 平均值: 1.9902, 标准差: 0.26426
GWO:最差值: 0.034662, 最优值: 9.136e-13, 平均值: 0.0032037, 标准差: 0.0087804
函数:F37
PO:最差值: 1.075e-51, 最优值: -1, 平均值: -0.8, 标准差: 0.40684
WOA:最差值: 7.8114e-20, 最优值: -1, 平均值: -0.23333, 标准差: 0.43018
DE:最差值: 1.6231e-21, 最优值: 1.7482e-22, 平均值: 7.3266e-22, 标准差: 4.0405e-22
PSO:最差值: 1.3044e-19, 最优值: 1.2635e-20, 平均值: 3.7831e-20, 标准差: 2.8772e-20
GWO:最差值: 3.7056e-21, 最优值: 1.0017e-22, 平均值: 4.6633e-22, 标准差: 6.864e-22
函数:F38
PO:最差值: 1.2074e-20, 最优值: 1.2074e-20, 平均值: 1.2074e-20, 标准差: 1.1841e-35
WOA:最差值: 5.6045e-20, 最优值: 1.2074e-20, 平均值: 1.8909e-20, 标准差: 1.2452e-20
DE:最差值: 8.0421e-18, 最优值: 1.1396e-19, 平均值: 8.07e-19, 标准差: 1.5607e-18
PSO:最差值: 9.1109e-14, 最优值: 2.6887e-16, 平均值: 1.1009e-14, 标准差: 1.9244e-14
GWO:最差值: 4.9025e-10, 最优值: 2.1153e-16, 平均值: 2.4358e-11, 标准差: 8.9515e-11

实验结果表明:PO算法的优化性能优于其他比较算法。

三、参考文献

[1] Qamar Askari, Irfan Younas, Mehreen Saeed. Political Optimizer: A novel socio-inspired meta-heuristic for global optimization[J]. Knowledge-Based Systems, 2020, 195: 105709.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

心️升明月

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值