一行实现88个群智能算法优化混合核极限学习机HKELM的多特征输入单输出的数据回归预测Matlab程序全家桶

一行实现88个群智能算法优化混合核极限学习机HKELM的多特征输入单输出的数据回归预测Matlab程序全家桶


前言

一行实现88个群智能算法优化混合核极限学习机HKELM的多特征输入单输出的数据回归预测Matlab程序全家桶

一、HKELM模型

混合核极限学习机(Hybrid Kernel Extreme Learning Machine,HKELM)是一种改进的极限学习机(ELM)模型。它结合了多种核函数的优点,以提高学习性能和模型的泛化能力。以下是HKELM的详细原理和流程:

1. 极限学习机(ELM)的基础

极限学习机(ELM)是一种用于训练单隐层前馈神经网络(SLFN)的算法。ELM的核心思想是:

  • 随机化隐层节点:在训练过程中,隐层节点的权重和偏置是随机生成的,不需要进行训练。
  • 线性回归训练:仅需对输出权重进行训练,从而大大加快了训练速度。

ELM的训练流程包括:

  1. 随机生成隐层节点的权重和偏置。
  2. 计算隐层输出矩阵。
  3. 通过最小二乘法求解输出权重。

2. 混合核极限学习机(HKELM)的原理

HKELM在ELM的基础上引入了多种核函数,以提高模型的灵活性和性能。其基本思想是:

  • 混合核函数:HKELM将多个核函数组合在一起,形成一个复合核,以更好地拟合复杂的数据分布。
  • 优化学习性能:通过选择适当的核函数组合,HKELM能够提高模型的泛化能力和学习性能。

3. HKELM的流程

HKELM的流程可以分为以下几个步骤:

  1. 选择混合核函数

    • 选择适当的核函数(如线性核、径向基核、多项式核等),并定义它们的权重。
    • 核函数的选择和组合可以根据具体任务和数据集的特性来决定。
  2. 计算混合核矩阵

    • 计算每个核函数在训练数据上的核矩阵。
    • 使用加权方式将这些核矩阵合成一个混合核矩阵。
  3. 隐层输出矩阵计算

    • 使用混合核函数对输入数据进行映射,得到隐层输出矩阵。
  4. 训练输出权重

    • 利用隐层输出矩阵和目标输出,通过最小二乘法或其他优化方法求解输出权重。
  5. 预测与评估

    • 将测试数据输入到训练好的模型中,进行预测。
    • 对模型进行性能评估,如计算预测误差或准确率等指标。

4. 优势与挑战

优势

  • 更强的建模能力:混合核函数可以捕捉数据中的更复杂模式,提升模型的表现。
  • 灵活性高:可以根据不同的数据集和任务选择不同的核函数组合。

挑战

  • 核函数选择:选择合适的核函数和权重需要一定的经验和调优。
  • 计算复杂度:混合核的计算可能会增加模型的训练和预测时间,特别是在处理大规模数据时。

HKELM通过引入多种核函数的组合,试图在保留ELM优点的同时克服其在处理复杂数据时的不足。这使得HKELM在许多实际应用中表现出较强的性能。

二、实验结果

1.88个智能优化算法清单在这里插入图片描述

2.程序内容和执行步骤

main_HKELM.m实现了88个优化算法对HKELM进行优化

HKELM.m实现了基本版本HKELM

两篇参考文献有详细的HKELM混合核极限学习机的原理 可以参考写

算法目录则是88个优化算法
在这里插入图片描述

更改红色框的“HO”修改成对应优化算法简称即可

[Bestscore, Bestpos, curve] = HO(pop, Max_iteration, lb, ub, dim, fun); %%河马优化算法

[Bestscore, Bestpos, curve] = ZOA(pop, Max_iteration, lb, ub, dim, fun); %%斑马优化算法

在这里插入图片描述

3.部分实验结果

河马优化算法HKELM

在这里插入图片描述

斑马优化算法HKELM

在这里插入图片描述

4.实验数据

在这里插入图片描述

三、核心代码


%%  添加路径
addpath('toolbox\')

%%  导入数据
res = xlsread('数据集.xlsx');
rand('state',0); %随机种子   

%%  数据分析
num_size = 0.7;                              % 训练集占数据集比例
outdim = 1;                                  % 最后一列为输出
num_samples = size(res, 1);                  % 样本个数
res = res(randperm(num_samples), :);         % 打乱数据集(不希望打乱时,注释该行)
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度

%%  划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);

P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);

%%  数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);

[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);

%% 获取最优正则化系数 C 和核函数参数 S 
Kernel_type1 = 'rbf'; %核函数类型1
Kernel_type2 = 'poly'; %核函数类型2

%% 优化算法参数设置
fun = @getObjValue;             % 目标函数                 
pop=5;                          % 种群数
Max_iteration=20;               % 最大迭代次数
ub=[5 5 5 5 0.5];               % 优化的参量分别为:正则化系数C,rbf核函数的核系数S(接下)
lb=[1 0.01 0.01 1 0.1];         % 多项式核函数的两个核系数poly1和poly2,以及核权重系数w
dim=5;                          % 维度

%%  优化算法 仅需修改一行即可
% AFT  阿里巴巴与四十大盗算法2021 
% AHA  人工蜂鸟算法2021
% ALO  蚁狮优化算法2015
% AOA  阿基米德优化算法2020
% AROA 吸引-排斥优化算法2024
% AVOA 非洲秃鹫优化算法2021
% BKA  黑翅鸢优化算法2024
% BWOA 黑寡妇优化算法
% BOA 蝴蝶优化算法2019
% C_PSO 横向交叉PSO优化算法 
% CDO 切诺贝利灾难优化算法2023
% CGO 混沌博弈优化算法2020
% ChOA 黑猩猩优化算法2020
% COA  小龙虾优化算法2023
% COOT 白骨顶鸡优化算法2021
% CPO 冠豪猪优化算法2024
% CJAYA Jaya优化算法2016
% CSA  合作优化算法2021
% DA  蜻蜓优化算法2016
% DBO 蜣螂优化算法2022
% DCS 差异创意搜索优化算法2024
% DMOA 侏儒猫鼬优化算法2022
% DOA 野狗优化算法2021
% EWOA 增强型鲸鱼优化算法
% EO 平衡优化算法2020
% EVO 能量谷优化算法2023
% FDA 法医调查优化算法2020
% FOX 狐狸有护士算法2022
% FSA 火烈鸟搜索算法2021
% GA 遗传优化算法1962
% GAO 巨型犰狳优化算法2023
% GAPSO 遗传粒子群优化算法
% GCRA 蔗鼠优化算法2024
% GEO 金鹰优化算法2020
% GJO 金豺优化算法2022
% GO_It 增长优化算法2023
% GO_FEs 增长优化算法2023
% GoldSA 黄金正弦算法2017
% GOOSE 鹅优化算法2024
% GRO 淘金优化器2023
% GTO 珍鲹优化算法2022
% GWO 灰狼优化算法2014
% HO 河马优化算法2024
% HHO 哈里斯鹰优化算法2019
% HGS 饥饿游戏搜索优化算法2020
% JS 水母搜索算法2020
% JSOA 跳蜘蛛优化算法2021
% KOA 开普勒优化算法2023
% LEA 爱情进化算法2024
% LPO 肺功能优化算法2024
% MFO 飞蛾扑火优化算法2015
% MGO 山岭羊优化算法2022
% MPA 海洋捕食者算法2020
% MVO 多元宇宙优化算法2016
% NGO 北方苍鹰优化算法2022
% NRBO 牛顿-拉夫逊优化算法2024
% O_RIME 横向交叉霜冰优化算法2023
% PO 鹦鹉优化算法2024
% POA 鹈鹕优化算法2022
% PSA PID搜索优化算法2024
% PSO 粒子群优化算法1995
% RBMO 红嘴蓝鹊优化算法2024
% RIME 霜冰优化算法2023
% RUN 龙格库塔优化算法2021
% SA 模拟退火算法1983
% SAO 雪消融优化算法2023
% SABO 减法平均优化算法2023
% SCA 正余弦优化算法2016
% SFO 旗鱼优化算法2019
% SHO 海马优化算法2022
% SMA 黏菌优化算法2020
% SO 蛇算法优化算法2022
% SS(SSA) 樽海鞘优化算法2017
% SSA 麻雀优化算法2020
% WHO 野马优化算法2021
% WOA 鲸鱼优化算法2016
% WSO 白鲨优化算法2022
% ZOA 斑马优化算法2022
%% 仅需要把优化算法的名称进行修改即可  此处是
% [Best_score, Best_pos, curve] = HO(pop, Max_iteration, lb, ub, dim, fun); 
[Best_score, Best_pos, curve] = ZOA(pop, Max_iteration, lb, ub, dim, fun); 

四、代码获取

私信即可

五、总结

包括但不限于
优化BP神经网络,深度神经网络DNN,极限学习机ELM,鲁棒极限学习机RELM,核极限学习机KELM,混合核极限学习机HKELM,支持向量机SVR,相关向量机RVM,最小二乘回归PLS,最小二乘支持向量机LSSVM,LightGBM,Xgboost,RBF径向基神经网络,概率神经网络PNN,GRNN,Elman,随机森林RF,卷积神经网络CNN,长短期记忆网络LSTM,BiLSTM,GRU,BiGRU,TCN,BiTCN,CNN-LSTM,TCN-LSTM,BiTCN-BiGRU,LSTM–Attention,VMD–LSTM,PCA–BP等等

用于数据的分类,时序,回归预测。
多特征输入,单输出,多输出

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值