💥💥💞💞欢迎来到本博客❤️❤️💥💥
🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。
⛳️座右铭:行百里者,半于九十。
📋📋📋本文目录如下:🎁🎁🎁
目录
⛳️赠与读者
👨💻做科研,涉及到一个深在的思想系统,需要科研者逻辑缜密,踏实认真,但是不能只是努力,很多时候借力比努力更重要,然后还要有仰望星空的创新点和启发点。当哲学课上老师问你什么是科学,什么是电的时候,不要觉得这些问题搞笑。哲学是科学之母,哲学就是追究终极问题,寻找那些不言自明只有小孩子会问的但是你却回答不出来的问题。建议读者按目录次序逐一浏览,免得骤然跌入幽暗的迷宫找不到来时的路,它不足为你揭示全部问题的答案,但若能让人胸中升起一朵朵疑云,也未尝不会酿成晚霞斑斓的别一番景致,万一它居然给你带来了一场精神世界的苦雨,那就借机洗刷一下原来存放在那儿的“躺平”上的尘埃吧。
或许,雨过云收,神驰的天地更清朗.......🔎🔎🔎
💥1 概述
基于灰狼优化算法(GWO)优化CNN-BiGRU-Attention风电功率预测研究是一个结合了多种先进算法和技术领域的复杂课题。以下是对该研究的详细分析:
一、研究背景与意义
随着全球能源需求的不断增长和环境保护意识的增强,风能作为一种清洁、可再生能源,得到了越来越广泛的应用。风电场的建设和运营需要对风电功率进行准确的预测,以便更好地进行资源调度、电网规划和经济效益评估。然而,风速、风向等因素的变化具有随机性和非线性特征,导致风电功率预测具有很大的挑战性。因此,研究基于灰狼优化算法优化CNN-BiGRU-Attention模型的风电功率预测方法具有重要意义。
二、算法原理与模型构建
1. 灰狼优化算法(GWO)
灰狼优化算法是一种基于生物群行为的模拟优化算法,它模仿了狼群的捕食策略,包括领头狼(α狼)、副领头狼(β狼)、探测者(δ狼)和追随者(ω狼)的角色。GWO算法通过模拟狼群的捕食行为,不断更新狼群的位置,最终找到最优解。该算法具有搜索能力强、参数少、易于实现等优点,适用于优化复杂问题的参数。
2. CNN-BiGRU-Attention模型
CNN(卷积神经网络)通过卷积层、池化层以及全连接层来提取和融合输入数据的特征。BiGRU(双向门控循环单元)是一种改进的RNN(循环神经网络)结构,能够同时捕捉序列数据的前后文信息。Attention(注意力机制)则能够动态地调整不同输入特征的权重,提高模型对关键信息的关注度。将CNN、BiGRU和Attention机制相结合,可以构建出具有强大特征提取和序列建模能力的风电功率预测模型。
3. GWO优化CNN-BiGRU-Attention模型
利用GWO算法优化CNN-BiGRU-Attention模型的超参数(如学习率、卷积核大小、神经元数量等),可以进一步提高模型的预测精度。GWO算法在训练过程中不断调整这些参数,寻找最优解以提高模型性能。同时,通过引入Attention机制,模型能够更加关注对预测结果影响较大的输入特征,从而提高预测的准确性和鲁棒性。
三、研究步骤与实现
1. 数据预处理
对风电数据进行清洗和归一化处理,准备多输入数据(如风速、温度、湿度等)。同时,划分训练集和测试集以评估模型的性能。
2. 模型构建与训练
构建CNN-BiGRU-Attention模型结构,并利用GWO算法优化模型的超参数。在训练过程中,使用训练集数据对模型进行训练,并通过验证集数据调整模型参数以防止过拟合。
3. 性能评估
使用测试集数据对训练好的模型进行性能评估,计算预测误差(如均方误差MSE)或其他评估指标以衡量模型的预测精度和泛化能力。
四、研究展望与挑战
基于灰狼优化算法优化CNN-BiGRU-Attention模型的风电功率预测研究具有广阔的应用前景和重要的研究价值。然而,该领域仍面临一些挑战和未解决的问题,如如何进一步提高模型的预测精度和鲁棒性、如何优化算法参数以减少计算复杂度等。未来研究可以进一步探索这些方向,为风电功率预测提供更加准确和高效的解决方案。
综上所述,基于灰狼优化算法优化CNN-BiGRU-Attention模型的风电功率预测研究是一个具有创新性和实用性的课题,对于推动风电产业的发展和提高能源利用效率具有重要意义。
📚2 运行结果
部分代码:
% 指标计算
disp('…………训练集误差指标…………')
[mae1,rmse1,mape1,error1]=calc_error(T_train1,T_sim1);
fprintf('\n')
figure('Position',[200,300,600,200])
plot(T_train1);
hold on
plot(T_sim1)
legend('真实值','预测值')
title('CNN-BiGRU-ATTENTION训练集预测效果对比')
xlabel('样本点')
ylabel('发电功率')
disp('…………测试集误差指标…………')
[mae2,rmse2,mape2,error2]=calc_error(T_test2,T_sim2);
fprintf('\n')
figure('Position',[200,300,600,200])
plot(T_test2);
hold on
plot(T_sim2)
legend('真实值','预测值')
title('CNN-BiGRU-ATTENTION预测集预测效果对比')
xlabel('样本点')
ylabel('发电功率')
figure('Position',[200,300,600,200])
plot(T_sim2-T_test2)
title('CNN-BiGRU-ATTENTION误差曲线图')
xlabel('样本点')
ylabel('发电功率')
%% 优化CNN-BiGRU-Attention
disp(' ')
disp('优化CNN_BiLSTM_attention神经网络:')
%% 初始化参数
popsize=10; %初始种群规模
maxgen=8; %最大进化代数
fobj = @(x)objectiveFunction(x,numFeatures,outdim,vp_train,vt_train,vp_test,T_test,ps_output);
% 优化参数设置
lb = [0.001 10 2 2]; %参数的下限。分别是学习率,biGRU的神经元个数,注意力机制的键值, 卷积核大小
ub = [0.01 50 50 10]; %参数的上限
dim = length(lb);%数量
% 可选:'DBO','GWO','OOA','PSO','SABO','SCSO','SSA','BWO','RIME','WOA','HHO','NGO';
[Best_score,Best_pos,curve]=NGO(popsize,maxgen,lb,ub,dim,fobj); %修改这里的函数名字即可
setdemorandstream(pi);
%% 绘制进化曲线
figure
plot(curve,'r-','linewidth',2)
xlabel('进化代数')
ylabel('均方误差')
legend('最佳适应度')
title('进化曲线')
%% 把最佳参数Best_pos回带
[~,optimize_T_sim] = objectiveFunction(Best_pos,numFeatures,outdim,vp_train,vt_train,vp_test,T_test,ps_output);
setdemorandstream(pi);
%% 比较算法预测值
str={'真实值','CNN-BiGRU-Attention','优化后CNN-BiGRU-Attention'};
figure('Units', 'pixels', ...
'Position', [300 300 860 370]);
plot(T_test,'-','Color',[0.8500 0.3250 0.0980])
hold on
plot(T_sim2,'-.','Color',[0.4940 0.1840 0.5560])
hold on
plot(optimize_T_sim,'-','Color',[0.4660 0.6740 0.1880])
legend(str)
set (gca,"FontSize",12,'LineWidth',1.2)
box off
legend Box off
%% 比较算法误差
test_y = T_test;
Test_all = [];
y_test_predict = T_sim2;
[test_MAE,test_MAPE,test_MSE,test_RMSE,test_R2]=calc_error(y_test_predict,test_y);
Test_all=[Test_all;test_MAE test_MAPE test_MSE test_RMSE test_R2];
y_test_predict = optimize_T_sim;
[test_MAE,test_MAPE,test_MSE,test_RMSE,test_R2]=calc_error(y_test_predict,test_y);
Test_all=[Test_all;test_MAE test_MAPE test_MSE test_RMSE test_R2];
str={'真实值','CNN-BiGRU-Attention','优化后CNN-BiGRU-Attention'};
str1=str(2:end);
str2={'MAE','MAPE','MSE','RMSE','R2'};
data_out=array2table(Test_all);
data_out.Properties.VariableNames=str2;
data_out.Properties.RowNames=str1;
disp(data_out)
%% 柱状图 MAE MAPE RMSE 柱状图适合量纲差别不大的
color= [0.66669 0.1206 0.108
0.1339 0.7882 0.8588
0.1525 0.6645 0.1290
0.8549 0.9373 0.8275
0.1551 0.2176 0.8627
0.7843 0.1412 0.1373
0.2000 0.9213 0.8176
0.5569 0.8118 0.7882
1.0000 0.5333 0.5176];
figure('Units', 'pixels', ...
'Position', [300 300 660 375]);
plot_data_t=Test_all(:,[1,2,4])';
b=bar(plot_data_t,0.8);
hold on
for i = 1 : size(plot_data_t,2)
x_data(:, i) = b(i).XEndPoints';
end
for i =1:size(plot_data_t,2)
b(i).FaceColor = color(i,:);
b(i).EdgeColor=[0.3353 0.3314 0.6431];
b(i).LineWidth=1.2;
end
for i = 1 : size(plot_data_t,1)-1
xilnk=(x_data(i, end)+ x_data(i+1, 1))/2;
b1=xline(xilnk,'--','LineWidth',1.2);
hold on
end
ax=gca;
legend(b,str1,'Location','best')
ax.XTickLabels ={'MAE', 'MAPE', 'RMSE'};
set(gca,"FontSize",10,"LineWidth",1)
box off
legend box off
🎉3 参考文献
文章中一些内容引自网络,会注明出处或引用为参考文献,难免有未尽之处,如有不妥,请随时联系删除。
[1]许亮,任圆圆,李俊芳.基于NGO-CNN-BiLSTM神经网络的动态质子交换膜燃料电池剩余使用寿命预测[J].汽车工程师, 2024(003):000.
[2]李卓,叶林,戴斌华,等.基于IDSCNN-AM-LSTM组合神经网络超短期风电功率预测方法[J].高电压技术, 2022(6):2117-2127.
[3]贾睿,杨国华,郑豪丰,等.基于自适应权重的CNN-LSTM&GRU组合风电功率预测方法[J].中国电力, 2022, 55(5):47-56.DOI:10.11930/j.issn.1004-9649.202104023.
[4]李艳、彭春华、傅裕、孙惠娟.基于CNN-LSTM网络模型的风电功率短期预测研究[J].华东交通大学学报, 2020, 37(4):7.DOI:CNKI:SUN:HDJT.0.2020-04-017.
[5]张子华,李琰,徐天奇,等.基于VMD-CNN-LSTM的短期风电功率预测研究[J].云南民族大学学报:自然科学版, 2023.
🌈4 Matlab代码、数据
资料获取,更多粉丝福利,MATLAB|Simulink|Python资源获取