matlab源码——政治优化算法(Political Optimizer,PO)


获取更多资讯,赶快关注公众号(名称:智能制造与智能调度,公众号:deeprlscheduler)吧!

PO 是由巴基斯坦国立计算机和新兴科学大学的 Qamar Askari 等人于 2020 年提出的一种受社会启发的新型全局优化算法,灵感来源于政治的多阶段过程。该算法通过将种群从逻辑上划分为政党和选区,赋予每个解双重角色,便于每个候选人更新政党领袖和选区获胜者的位置。文末有matlab源码下载链接!

1 政治

政治在不同的背景下有不同的含义。作者以一个国家的政治制度为参照点,模仿政治家的行为,以达到优化的最终目的。政治是对于一个地区、州或国家的治理,党的政治制度可以分为四种主要类型:一党制、两党制、主权制和多党制,此外,国家的治理可以通过议会制或总统制进行。作者从这些党制中综合了一些共性来概括 PO,例如政党和选区的概念,政治家和政党的联系、同党政治家的合作、党派间选择所体现的竞争、政治家党派转换、选举前的拉票活动、议会中当选议员之间的合作。多党民主的政治实践是一个复杂的政治过程,涉及社会各个层面,如图 1 所示,包含以下阶段:

图1 多阶段政治进程的例证

图1 多阶段政治进程的例证
  • 政党信息:政党是由具有共同议程的个体组成,这些个体被称为政客或公职候选人。图 1 中 P i P_i Pi 代表第 i i i 个政党的成员,脸部颜色用于区分不同政党的成员。
  • 成员可随时变更党派隶属关系,如在图 1 中, P 1 P_1 P1 P 2 P_2 P2 P 3 P_3 P3 中各有一个成员变为 P 2 P_2 P2 P 3 P_3 P3 P 1 P_1 P1
  • 选票分配:这些成员被分配政党票,以便在选区中竞争选举。选区可以认为是一组投票者(选民),选举出代表某一政党的候选人。图 1 中,每个笑脸上的标签 C i C_i Ci 表示成员正在第 i i i 个选取竞选。
  • 竞选活动:候选人视察他们的选区并说服选民投票给他们,这会成就候选人的声誉更新,即状态更新。
  • 党间选举:在每个选区,选民投票给候选人以决定获胜者。图 1 中每个选取的获胜者加粗表示,例如 P 1 P_1 P1 C 1 C_1 C1 C 2 C_2 C2 中胜出, P 3 P_3 P3 C 3 C_3 C3 中胜出,而 P 2 P_2 P2 在所有选区中都没有胜出。
  • 政府组建和议会事务:来自各党派的当选成员(获胜者)组成议会,并相互合作运行政府,图 1 中的"parliamentary affairs"描绘了这一点。

当前基于选举制度的算法已经有很多,如贪婪政治优化(Greedy Politics Optimization,GPO)受州议会选取期间采取的政治策略的启发,议会优化算法(Parliamentary Optimization Algorithm,POA)受国会议员首脑选举竞争的启发,竞选活动优化(Election Campaign Optimization,ECO)的灵感来源于候选人在竞选活动中的动机。但是 PO 却有着使之与其他政治算法不同的特性:

  1. PO 是政治中所有主要阶段的数学映射,而不再仅仅是模拟某一阶段;
  2. 提出了一种新颖的位置更新策略,称为基于最近过去位置更新策略(RPPUS),该策略是对前一届选举中政客学习行为的数学建模;
  3. 每个个体解都扮演着双重角色。它既是党员,又是选举候选人。这允许一个解更新其相对于两个改进的解的位置:政党领导人和选区获胜者;
  4. 将议会事务阶段纳入其中,允许更优解之间进行合作,以进一步改进解。

2 政治优化 PO

PO与当前一些流行算法的区别在于:

  1. 不同于其他优化算法,PO从逻辑上将种群划分为政党和选区,为每个代理分配双重角色。这种划分的优势在于,通过与一对独特的更优解进行交互,可以更新搜索代理的位置。通过实验发现,该方法可促进探索和利用;
  2. 粒子群PSO、灰狼优化GWO、鲸鱼优化WOA、正余弦SCA、教与学优化TLBO等都是使用最优解(全局最优)的位置更新搜索代理的位置,而PO则是与政党领导人和选区获胜者交互,而不是全局最优解;
  3. PSO存储了每个搜索代理的最优位置(局部最优)用于更新位置,而PO存储了搜索代理的最近位置,用于探索搜索空间以寻找最优区域;
  4. 类似于教与学TLBO,PO的位置更新机制也包括两个阶段,但是它们的工作原理完全不同。在TLBO的教学阶段,搜索代理通过与全局最优(教师)和整个种群的平均位置(班级)交互进行位置更新,而在PO的竞选活动阶段,搜索代理首先根据政党领导人更新位置,然后再根据选区获胜者更新位置。类似地,再TLBO的学习者阶段,搜索代理通过与两个随机选择的解交互来更新自己的位置,而在PO的议会事务阶段,每个选区获胜者通过与另一个随机选择的选区获胜者交互来进一步改善自己的位置;
  5. PO的另一个特有属性是其位置更新策略,涉及6种情况。基于政党领导人或选区获胜者的位置和适应度、搜索代理的当前位置和适应度以及最近的位置和适应度,识别和搜索最优前景的区域。该策略可以极大地提升PO的利用能力;
  6. 因为有多个较优解,PO能够通过议会事务阶段的相互交互,进一步提升这些较优解的质量,这是其他算法做不到的。

从两个方面来看,政治本身就是一个优化的过程:每个个体都优化自己的声誉来赢得选举,每个政党也都会试图最大化自己在议会中的席位来组建政府。这两个方面使得政治成为优化算法的理想灵感来源。

政治优化问题
个体(党员)候选解
个体声誉候选解在搜索空间中的位置
评估政员声誉的参数候选解位置向量的各个分量
选举评估或目标函数
个体在选举中获得的票数候选解适应度值

政治优化 PO 是由政党组建与选区分配竞选活动政党转换政党间选举议会事务等五个阶段组成的序列。政党组建和选区分配仅运行一次以进行初始化,其他四个阶段则循环执行,流程图如图 2 所示。

图2 算法流程

图2 算法流程

2.1 数学模型和优化算法

算法1 PO伪代码

算法1 PO伪代码

表2 变量符号含义

表2 变量符号含义

2.2 算法具体流程

算法中涉及的政党组建与选区分配、竞选活动、政党转换、政党间选举、议会事务等各个阶段的原理、公式,请关注公众号后回复“政治优化”或"PO"获取哦!

3 源码

请关注公众号后回复“政治优化”或"PO"获取matlab源码哦!

  • 6
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

松间沙路hba

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值