回归预测|基于北方苍鹰优化核极限学习机的数据预测Matlab程序NGO-KELM 多特征输入单输出
文章目录
回归预测|基于北方苍鹰优化核极限学习机的数据预测Matlab程序NGO-KELM 多特征输入单输出
一、基本原理
NGO-KELM(North-Gaussian Optimization Kernel Extreme Learning Machine)结合了北方苍鹰优化(NGO)算法和核极限学习机(KELM)模型。下面是其回归预测的详细流程和基本原理:
1. 基本原理
核极限学习机(KELM)
- 极限学习机(ELM):一种用于回归和分类的前馈神经网络,其特点是隐藏层参数随机生成并固定,仅优化输出层的权重。
- 核方法:KELM使用核函数将输入数据映射到高维特征空间,以捕捉非线性关系。
- 回归模型:在特征空间中,KELM模型利用核函数计算输入数据的特征映射,然后通过最小化损失函数来学习输出权重。
2. NGO-KELM回归预测流程
1. 数据预处理
- 数据归一化:将输入数据标准化,确保模型训练稳定。
2. 核极限学习机(KELM)模型构建
- 选择核函数:如高斯核、线性核等。核函数将输入数据映射到高维空间。
- 计算核矩阵:基于核函数计算训练样本对的核矩阵。
- 训练模型:
- 随机生成隐藏层的参数。
- 利用核矩阵和真实输出,通过最小二乘法来求解输出层的权重。
3. 北方苍鹰优化(NGO)
- 优化目标:NGO算法用于优化KELM模型的超参数,如核函数参数、隐含层的数量等。
- NGO算法:
- 初始化:设置种群及其位置,初始化相关参数。
- 适应度评估:评估每个个体的适应度(例如,通过交叉验证来评估模型的预测性能)。
- 更新位置:根据适应度和优化策略更新个体的位置。
- 迭代:重复适应度评估和位置更新,直到满足终止条件(如达到最大迭代次数或找到最佳适应度)。
4. 模型训练与预测
- 训练:使用NGO优化后的超参数训练KELM模型,优化输出层的权重。
- 预测:将新数据输入训练好的KELM模型,利用核函数映射和输出层权重进行预测。
5. 模型评估
- 评估指标:如均方误差(MSE)、平均绝对误差(MAE)等,评估模型的预测性能。
总结来说,NGO-KELM结合了北方苍鹰优化算法和核极限学习机,通过优化KELM模型的超参数来提升预测性能。NGO负责优化过程,而KELM提供高效的回归模型,结合使用能够有效提高回归任务的准确性。
二、实验结果
NGO-KELM回归预测
三、核心代码
%% 导入数据
res = xlsread('数据集.xlsx');
%% 数据分析
num_size = 0.8; % 训练集占数据集比例
outdim = 1; % 最后一列为输出
num_samples = size(res, 1); % 样本个数
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim; % 输入特征维度
%% 划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);
P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);
%% 数据归一化
[P_train, ps_input] = mapminmax(P_train, 0, 1);
P_test = mapminmax('apply', P_test, ps_input);
[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);
四、代码获取
五、总结
包括但不限于
优化BP神经网络,深度神经网络DNN,极限学习机ELM,鲁棒极限学习机RELM,核极限学习机KELM,混合核极限学习机HKELM,支持向量机SVR,相关向量机RVM,最小二乘回归PLS,最小二乘支持向量机LSSVM,LightGBM,Xgboost,RBF径向基神经网络,概率神经网络PNN,GRNN,Elman,随机森林RF,卷积神经网络CNN,长短期记忆网络LSTM,BiLSTM,GRU,BiGRU,TCN,BiTCN,CNN-LSTM,TCN-LSTM,BiTCN-BiGRU,LSTM–Attention,VMD–LSTM,PCA–BP等等
用于数据的分类,时序,回归预测。
多特征输入,单输出,多输出