灰狼优化算法matlab,改进的灰狼优化算法及其高维函数和FCM优化.PDF

改进的灰狼优化算法及其高维函数和FCM优化.PDF

第xx 卷 第x 期 控 制 与 决 策 Vol.xx No.x

xxxx 年 x月 Control and Decision xxx.xxxx

DOI: 10.13195/j.kzyjc.2018.0146

改进的灰狼优化算法及其高维函数和FCM 优化

张新明 , 王 霞 , 康 强

(1. 河南师范大学计算机与信息工程学院, 河南新乡453007;

2. 河南省高校计算智能与数据挖掘工程技术研究中心, 河南新乡453007)

摘 要: 最近提出的灰狼优化算法(Grey Wolf Optimizer, GWO) 具有较强的局部搜索能力和较快的收敛速度等

优点, 但在解决高维和复杂的优化问题时存在全局搜索能力不足的问题. 因此, 提出了一种改进的GWO, 即新型

反向学习和差分变异的GWO(GWO with Opposition-learning and Differential mutation, ODGWO). 首先, 提出一种

最优最差反向学习策略和一种动态随机差分变异算子, 并将它们融入到GWO 中, 以便增强全局搜索能力; 然后,

为了很好地平衡探索与开采能力以提升整体的优化性能, 对算法前、后半搜索阶段分别采用单维操作和全维操

作形成ODGWO; 最后, 将ODGWO 用于高维函数和模糊C 均值(Fuzzy C-Means, FCM) 聚类优化. 实验结果表

明, 在许多高维Benchmark 函数(30 维、50 维和1000 维) 优化上, ODGWO 的搜索能力大幅度领先于GWO, 与

state-of-the-art 优化算法如GWOepd、HGWO、MEABC、CSPSO、SinDE、RLPSO 和DELLU 相比,ODGWO 具

有更好的优化性能. 在7 个标准数据集的FCM 聚类优化上, 与GWO、GWOepd 和LGWO 相比, ODGWO 表现

出了更好的聚类优化性能, 可应用在更多的实际优化问题上.

关键词: 智能优化算法;灰狼优化算法;反向学习;差分变异;模糊C 均值(FCM) 聚类;高维函数优化

中图分类号: TP181 文献标志码: A

Improved grey wolf optimizer and its application to high-dimensional

function andFCMoptimization

ZHANGXin-ming , WANGXia , KANGQiang

(1. College of Computer and Information Engineering, Henan Normal University, Xinxiang 453007, China;2.

Engineering Technology Research Center for Computing Intelligence & Data Mining of Henan Province,

Xinxiang453007, China)

Abstract: The Grey Wolf Optimizer (GWO) algorithm proposed recently has strong local search ability and fast

convergence, but it has some defects, such as poor global search ability in solving high-dimensional functi

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值