【电力负荷预测】蜣螂算法优化时间卷积神经网络DBO-TCN电力负荷预测【含Matlab源码 3379期】

💥💥💞💞欢迎来到Matlab仿真科研站博客之家💞💞💥💥

✅博主简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,Matlab项目合作可私信。

🍎个人主页:Matlab仿真科研站博客之家

🏆代码获取方式:
💥扫描文章底部QQ二维码💥

⛳️座右铭:行百里者,半于九十;路漫漫其修远兮,吾将上下而求索。
在这里插入图片描述

⛄更多Matlab神经网络预测与分类(仿真科研站版)仿真内容点击👇
Matlab神经网络预测与分类(仿真科研站版)

⛄一、蜣螂算法优化时间卷积神经网络DBO-TCN电力负荷预测简介

摘要:蜣螂优化算法( Dung beetle optimizer, DBO), 是由 Jiankai Xue 等于2022 年提出的一种群体智能优化算法。其灵感来源于蜣螂的生物行为过程,具有寻优能力强,收敛速度快的特点。
1 蜣螂优化算法
众所周知,蜣螂是自然界中一种常见的昆虫,动物的粪便为食,在全世界内分布广泛,扮演着自然界中分解者的角色,对生态系统平衡起着至关重要的作用。蜣螂有一个有趣的习惯,它们会把粪便捏成球,然后把它滚出来,目的是能够尽可能快速、有效地移动粪球,防止被其他蜣螂抢夺。蜣螂的可以利用天体线索(特别是太阳、月亮和偏振光)来导航,让粪球沿着直线滚动,如果完全没有光源(也就是在完全黑暗的环境中),蜣螂的就不再走直线,而是弯曲的,有时甚至略圆,有很多因素(如风、地面不平)都会导致蜣螂偏离原来的方向,蜣螂在滚粪球的过程如遇到障碍物而无法前进时,通常会爬到粪球上面"跳舞"(包括一系列的旋转和停顿),决定它们的运动方向。

从蜣螂的习性中观察发现,其获取粪球主要有以下两个目的:①用来产卵和养育下一代;②作为食物。蜣螂会把粪球埋起来,雌性蜣螂会在粪球里产卵,粪球不仅是蜣螂幼虫的发育场所,也是必需的食物。所以,粪球对蜣螂的生存起着不可替代的作用。

本位介绍了一种新的群体智能优化算法------DBO(Dung beetle optimizer)技术,其灵感主要来源于蜣螂的滚球、跳舞、觅食、偷窃、和繁殖等行为。

1.1 结构和算法
根据上面的讨论,蜣螂在滚动过程中需要通过天体线索导航,以保持粪球在直线路径上滚动。为了模拟滚球行为,要求蜣螂在整个搜索空间中沿着给定的方向移动。蜣螂的运动轨迹如图1所示。在图1中,蜣螂利用太阳来导航,其中红色箭头表示的是滚动的方向,同时,我们假设光源的强度也会影响蜣螂的路径。

1.2 计算步骤
DBO 算法作为一种新颖的基于 SI 的优化技术, 主要有六个步骤:
(1) 初始化蜣螂群和 DBO 算法的参数;
(2) 根据目标函数计算出所有目标代理的适应度值;
(3) 更新所有蛲螂的位置;
(4) 判断每个目标代理是否超出边界;
(5) 更新当前最优解及其适应度值;
(6) 重复上述步骤, 直到 t 满足终止准则, 输出全局最优解及其适应度值。

2 时间卷积神经网络
2.1 TCN背景
到目前为止,深度学习背景下的序列建模主题主要与递归神经网络架构(如LSTM和GRU)有关。S. Bai等人(*)认为,这种思维方式已经过时,在对序列数据进行建模时,应该将卷积网络作为主要候选者之一加以考虑。他们能够表明,在许多任务中,卷积网络可以取得比RNNs更好的性能,同时避免了递归模型的常见缺陷,如梯度爆炸/消失问题或缺乏内存保留。此外,使用卷积网络而不是递归网络可以提高性能,因为它允许并行计算输出。他们提出的架构称为时间卷积网络(TCN),将在下面的部分中进行解释。
TCN是指时间卷积网络,一种新型的可以用来解决时间序列预测的算法。
该算法于2016年由Lea等人首先提出,当时他们在做视频动作分割的研究,一般而言此常规过程包括两个步骤:首先,使用(通常)对时空信息进行编码的CNN来计算低级特征,其次,将这些低级特征输入到使用(通常是)捕获高级时域信息的分类器中)RNN。这种方法的主要缺点是需要两个单独的模型。
TCN提供了一种统一的方法来分层捕获所有两个级别的信息。
自从TCN提出后引起了巨大反响,有人认为:时间卷积网络(TCN)将取代RNN成为NLP或者时序预测领域的王者。
DataScienceCentral 的编辑主任William Vorhies给出的原因如下:
RNN耗时太长,由于网络一次只读取、解析输入文本中的一个单词(或字符),深度神经网络必须等前一个单词处理完,才能进行下一个单词的处理。这意味着 RNN 不能像 CNN 那样进行大规模并行处理;并且TCN的实际结果也要优于RNN算法。
TCN可以采用一系列任意长度并将其输出为相同长度。在使用一维完全卷积网络体系结构的情况下,使用因果卷积。一个关键特征是,时间t的输出仅与t之前发生的元素卷积。

2.2 TCN特点
TCN 模型以 CNN 模型为基础,并做了如下改进:
(1)适用序列模型:因果卷积(Causal Convolution)
(2)记忆历史:空洞卷积/膨胀卷积(Dilated Convolution),残差模块(Residual block)
下面将分别介绍 CNN 的扩展技术。

TCN的特点:
(1)因果卷积网络
(2)膨胀卷积方式(扩张卷积、空洞卷积)Dilated Causal Convolution
(3)残差块
(4)激活函数
(5)规范化
(6)正则化
(7)Dropout

⛄二、部分源代码

clear
close all
clc
data = readmatrix(‘data.csv’);
data = data(:,2:10);
w=1; % w是滑动窗口的大小
s=24; % 选取前24小时的所有数据去预测未来一小时的数据
m = 1200; %选取m个样本作训练集
n = 300; %选取n个样本作测试集
input_train=[];
for i =1:m
xx = data(1+w*(i-1):w*(i-1)+s,:);
xx =xx(😃;
input_train = [input_train,xx];
end
output_train =[];
output_train = data(2:m+1,1)';

input_test=[];
for i =m+1:m+n
xx = data(1+w*(i-1):w*(i-1)+s,:);
xx =xx(😃;
input_test = [input_test,xx];
end
output_test = data(m+2:m+n+1,1)';

%% 数据归一化
[inputn,inputps]=mapminmax(input_train,0,1);
[outputn,outputps]=mapminmax(output_train);
inputn_test=mapminmax(‘apply’,input_test,inputps);

%% 优化算法优化前,构建优化前的TCN模型
numFeatures = size(input_test,1);
outputSize = 1; %数据输出y的维度
numFilters = 64;
filterSize = 5;
dropoutFactor = 0.005;
numBlocks = 4;

% layer = sequenceInputLayer(numFeatures,Normalization=“rescale-symmetric”,Name=“input”);
% lgraph = layerGraph(layer);
%
% outputName = layer.Name;
%
% for i = 1:numBlocks
% dilationFactor = 2^(i-1);
%
% layers = [
% convolution1dLayer(filterSize,numFilters,DilationFactor=dilationFactor,Padding=“causal”,Name=“conv1_”+i)
% layerNormalizationLayer
% dropoutLayer(dropoutFactor)
% % spatialDropoutLayer(dropoutFactor)
% convolution1dLayer(filterSize,numFilters,DilationFactor=dilationFactor,Padding=“causal”)
% layerNormalizationLayer
% reluLayer
% dropoutLayer(dropoutFactor)
% additionLayer(2,Name=“add_”+i)];
%
% % Add and connect layers.
% lgraph = addLayers(lgraph,layers);
% lgraph = connectLayers(lgraph,outputName,“conv1_”+i);
%
% % Skip connection.
% if i == 1
% % Include convolution in first skip connection.
% layer = convolution1dLayer(1,numFilters,Name=“convSkip”);
%
% lgraph = addLayers(lgraph,layer);
% lgraph = connectLayers(lgraph,outputName,“convSkip”);
% lgraph = connectLayers(lgraph,“convSkip”,“add_” + i + “/in2”);
% else
% lgraph = connectLayers(lgraph,outputName,“add_” + i + “/in2”);
% end
%
% % Update layer output name.
% outputName = “add_” + i;
% end
%
% layers = [
% fullyConnectedLayer(outputSize,Name=“fc”)
% tanhLayer(‘name’,‘softmax’)
% regressionLayer(‘name’,‘output’)];
%
% lgraph = addLayers(lgraph,layers);
% lgraph = connectLayers(lgraph,outputName,“fc”);
%
% % 参数设置
% options0 = trainingOptions(‘adam’, … % 优化算法Adam
% ‘MaxEpochs’, 500, … % 最大训练次数
% ‘GradientThreshold’, 1, … % 梯度阈值
% ‘InitialLearnRate’, 0.001, … % 初始学习率
% ‘LearnRateSchedule’, ‘piecewise’, … % 学习率调整
% ‘LearnRateDropPeriod’,300, … % 训练100次后开始调整学习率
% ‘LearnRateDropFactor’,0.001, … % 学习率调整因子
% ‘L2Regularization’, 0.001, … % 正则化参数
% ‘ExecutionEnvironment’, ‘cpu’,… % 训练环境
% ‘Verbose’, 1, … % 关闭优化过程
% ‘Plots’, ‘none’); % 画出曲线
%
% % 网络训练
% net0 = trainNetwork(inputn,outputn,lgraph,options0 );
% an0 = net0.predict(inputn_test);
% test_simu0=mapminmax(‘reverse’,an0,outputps); %把仿真得到的数据还原为原始的数量级
% %误差指标
% error0 = output_test - test_simu0;
% mse0=mse(output_test,test_simu0)
% %% 标准TCN神经网络作图
% figure
% plot(output_test,‘b-’,‘markerfacecolor’,[0.5,0.5,0.9],‘MarkerSize’,6)
% hold on
% plot(test_simu0,‘r–’,‘MarkerSize’,6)
% title([‘TCN的mse误差:’,num2str(mse0)])
% legend(‘真实y’,‘预测的y’)
% xlabel(‘样本数’)
% ylabel(‘负荷值’)
% box off
% set(gcf,‘color’,‘w’)
%
%% 调用DBO优化TCN
disp(‘调用DBO优化TCN…,优化时间较长,请耐心等待,因为需要训练SearchAgents*Max_iterations次的TCN网络’)
% DBO优化参数设置
SearchAgents = 30; % 种群数量 30
Max_iterations = 20; % 迭代次数 20
lowerbound = [0.001 0.0001 20 2 2]; %五个参数的下限分别是正则化参数,学习率,滤波器个数:numFilters,滤波器大小:filterSize,区块数:numBlocks
upperbound = [0.1 0.01 100 10 10]; %五个参数的上限
dimension = length(lowerbound);%数量,即要优化的TCN参数个数
fboj=@(x)fun(x,inputn,outputn,inputn_test,outputps,output_test,numFeatures,outputSize);
[fMin,Best_pos,Convergence_curve] = DBO(SearchAgents,Max_iterations,lowerbound,upperbound,dimension,fboj);

L2Regularization = Best_pos(1,1); % 最佳L2正则化系数
InitialLearnRate = Best_pos(1,2) ;% 最佳初始学习率
numFilters = fix(Best_pos(1,3));
filterSize = fix(Best_pos(1,4));
numBlocks = fix(Best_pos(1,5));
disp([‘最优参数:’,num2str(L2Regularization),num2str(InitialLearnRate),num2str(numFilters),num2str(filterSize),num2str(numBlocks)])
disp(‘优化结束,将最佳net导出并用于测试…’)
setdemorandstream(pi);
[mse0_TCN,test_simu_TCN] = fun(lowerbound,inputn,outputn,inputn_test,outputps,output_
hold on
plot(test_simu_TCN,‘g’)
plot(test_simu_DBOTCN,‘r’)
plot(output_test,‘b’)
legend(‘TCN预测值’,‘DBO-TCN预测值’,‘实际值’)
ylabel(‘预测结果’)
xlabel(‘预测样本’)
title([‘DBO-TCN的mse误差:’,num2str(mse_DBOTCN)])
box off
set(gcf,‘color’,‘w’)

figure
plot(abs(error_DBOTCN),‘g-*’)
hold on
plot(abs(error),‘-or’)
title(‘预测误差对比图’,‘fontsize’,12)
xlabel(‘预测样本’,‘fontsize’,12)
ylabel(‘误差绝对值’,‘fontsize’,12)
legend(‘DBO-TCN’,‘TCN’)

⛄三、运行结果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

⛄四、matlab版本及参考文献

1 matlab版本
2014a

2 参考文献
[1]廖庆陵,窦震海,孙锴,朱亚玲.基于自适应粒子群算法优化支持向量机的负荷预测[J].现代电子技术. 2022,45(03)

3 备注
简介此部分摘自互联网,仅供参考,若侵权,联系删除

🍅 仿真咨询
1 各类智能优化算法改进及应用

1.1 PID优化
1.2 VMD优化
1.3 配电网重构
1.4 三维装箱
1.5 微电网优化
1.6 优化布局
1.7 优化参数
1.8 优化成本
1.9 优化充电
1.10 优化调度
1.11 优化电价
1.12 优化发车
1.13 优化分配
1.14 优化覆盖
1.15 优化控制
1.16 优化库存
1.17 优化路由
1.18 优化设计
1.19 优化位置
1.20 优化吸波
1.21 优化选址
1.22 优化运行
1.23 优化指派
1.24 优化组合
1.25 车间调度
1.26 生产调度
1.27 经济调度
1.28 装配线调度
1.29 水库调度
1.30 货位优化
1.31 公交排班优化
1.32 集装箱船配载优化
1.33 水泵组合优化
1.34 医疗资源分配优化
1.35 可视域基站和无人机选址优化

2 机器学习和深度学习分类与预测
2.1 机器学习和深度学习分类
2.1.1 BiLSTM双向长短时记忆神经网络分类
2.1.2 BP神经网络分类
2.1.3 CNN卷积神经网络分类
2.1.4 DBN深度置信网络分类
2.1.5 DELM深度学习极限学习机分类
2.1.6 ELMAN递归神经网络分类
2.1.7 ELM极限学习机分类
2.1.8 GRNN广义回归神经网络分类
2.1.9 GRU门控循环单元分类
2.1.10 KELM混合核极限学习机分类
2.1.11 KNN分类
2.1.12 LSSVM最小二乘法支持向量机分类
2.1.13 LSTM长短时记忆网络分类
2.1.14 MLP全连接神经网络分类
2.1.15 PNN概率神经网络分类
2.1.16 RELM鲁棒极限学习机分类
2.1.17 RF随机森林分类
2.1.18 SCN随机配置网络模型分类
2.1.19 SVM支持向量机分类
2.1.20 XGBOOST分类

2.2 机器学习和深度学习预测
2.2.1 ANFIS自适应模糊神经网络预测
2.2.2 ANN人工神经网络预测
2.2.3 ARMA自回归滑动平均模型预测
2.2.4 BF粒子滤波预测
2.2.5 BiLSTM双向长短时记忆神经网络预测
2.2.6 BLS宽度学习神经网络预测
2.2.7 BP神经网络预测
2.2.8 CNN卷积神经网络预测
2.2.9 DBN深度置信网络预测
2.2.10 DELM深度学习极限学习机预测
2.2.11 DKELM回归预测
2.2.12 ELMAN递归神经网络预测
2.2.13 ELM极限学习机预测
2.2.14 ESN回声状态网络预测
2.2.15 FNN前馈神经网络预测
2.2.16 GMDN预测
2.2.17 GMM高斯混合模型预测
2.2.18 GRNN广义回归神经网络预测
2.2.19 GRU门控循环单元预测
2.2.20 KELM混合核极限学习机预测
2.2.21 LMS最小均方算法预测
2.2.22 LSSVM最小二乘法支持向量机预测
2.2.23 LSTM长短时记忆网络预测
2.2.24 RBF径向基函数神经网络预测
2.2.25 RELM鲁棒极限学习机预测
2.2.26 RF随机森林预测
2.2.27 RNN循环神经网络预测
2.2.28 RVM相关向量机预测
2.2.29 SVM支持向量机预测
2.2.30 TCN时间卷积神经网络预测
2.2.31 XGBoost回归预测
2.2.32 模糊预测
2.2.33 奇异谱分析方法SSA时间序列预测

2.3 机器学习和深度学习实际应用预测
CPI指数预测、PM2.5浓度预测、SOC预测、财务预警预测、产量预测、车位预测、虫情预测、带钢厚度预测、电池健康状态预测、电力负荷预测、房价预测、腐蚀率预测、故障诊断预测、光伏功率预测、轨迹预测、航空发动机寿命预测、汇率预测、混凝土强度预测、加热炉炉温预测、价格预测、交通流预测、居民消费指数预测、空气质量预测、粮食温度预测、气温预测、清水值预测、失业率预测、用电量预测、运输量预测、制造业采购经理指数预测

3 图像处理方面
3.1 图像边缘检测
3.2 图像处理
3.3 图像分割
3.4 图像分类
3.5 图像跟踪
3.6 图像加密解密
3.7 图像检索
3.8 图像配准
3.9 图像拼接
3.10 图像评价
3.11 图像去噪
3.12 图像融合
3.13 图像识别
3.13.1 表盘识别
3.13.2 车道线识别
3.13.3 车辆计数
3.13.4 车辆识别
3.13.5 车牌识别
3.13.6 车位识别
3.13.7 尺寸检测
3.13.8 答题卡识别
3.13.9 电器识别
3.13.10 跌倒检测
3.13.11 动物识别
3.13.12 二维码识别
3.13.13 发票识别
3.13.14 服装识别
3.13.15 汉字识别
3.13.16 红绿灯识别
3.13.17 虹膜识别
3.13.18 火灾检测
3.13.19 疾病分类
3.13.20 交通标志识别
3.13.21 卡号识别
3.13.22 口罩识别
3.13.23 裂缝识别
3.13.24 目标跟踪
3.13.25 疲劳检测
3.13.26 旗帜识别
3.13.27 青草识别
3.13.28 人脸识别
3.13.29 人民币识别
3.13.30 身份证识别
3.13.31 手势识别
3.13.32 数字字母识别
3.13.33 手掌识别
3.13.34 树叶识别
3.13.35 水果识别
3.13.36 条形码识别
3.13.37 温度检测
3.13.38 瑕疵检测
3.13.39 芯片检测
3.13.40 行为识别
3.13.41 验证码识别
3.13.42 药材识别
3.13.43 硬币识别
3.13.44 邮政编码识别
3.13.45 纸牌识别
3.13.46 指纹识别

3.14 图像修复
3.15 图像压缩
3.16 图像隐写
3.17 图像增强
3.18 图像重建

4 路径规划方面
4.1 旅行商问题(TSP)
4.1.1 单旅行商问题(TSP)
4.1.2 多旅行商问题(MTSP)
4.2 车辆路径问题(VRP)
4.2.1 车辆路径问题(VRP)
4.2.2 带容量的车辆路径问题(CVRP)
4.2.3 带容量+时间窗+距离车辆路径问题(DCTWVRP)
4.2.4 带容量+距离车辆路径问题(DCVRP)
4.2.5 带距离的车辆路径问题(DVRP)
4.2.6 带充电站+时间窗车辆路径问题(ETWVRP)
4.2.3 带多种容量的车辆路径问题(MCVRP)
4.2.4 带距离的多车辆路径问题(MDVRP)
4.2.5 同时取送货的车辆路径问题(SDVRP)
4.2.6 带时间窗+容量的车辆路径问题(TWCVRP)
4.2.6 带时间窗的车辆路径问题(TWVRP)
4.3 多式联运运输问题

4.4 机器人路径规划
4.4.1 避障路径规划
4.4.2 迷宫路径规划
4.4.3 栅格地图路径规划

4.5 配送路径规划
4.5.1 冷链配送路径规划
4.5.2 外卖配送路径规划
4.5.3 口罩配送路径规划
4.5.4 药品配送路径规划
4.5.5 含充电站配送路径规划
4.5.6 连锁超市配送路径规划
4.5.7 车辆协同无人机配送路径规划

4.6 无人机路径规划
4.6.1 飞行器仿真
4.6.2 无人机飞行作业
4.6.3 无人机轨迹跟踪
4.6.4 无人机集群仿真
4.6.5 无人机三维路径规划
4.6.6 无人机编队
4.6.7 无人机协同任务
4.6.8 无人机任务分配

5 语音处理
5.1 语音情感识别
5.2 声源定位
5.3 特征提取
5.4 语音编码
5.5 语音处理
5.6 语音分离
5.7 语音分析
5.8 语音合成
5.9 语音加密
5.10 语音去噪
5.11 语音识别
5.12 语音压缩
5.13 语音隐藏

6 元胞自动机方面
6.1 元胞自动机病毒仿真
6.2 元胞自动机城市规划
6.3 元胞自动机交通流
6.4 元胞自动机气体
6.5 元胞自动机人员疏散
6.6 元胞自动机森林火灾
6.7 元胞自动机生命游戏

7 信号处理方面
7.1 故障信号诊断分析
7.1.1 齿轮损伤识别
7.1.2 异步电机转子断条故障诊断
7.1.3 滚动体内外圈故障诊断分析
7.1.4 电机故障诊断分析
7.1.5 轴承故障诊断分析
7.1.6 齿轮箱故障诊断分析
7.1.7 三相逆变器故障诊断分析
7.1.8 柴油机故障诊断

7.2 雷达通信
7.2.1 FMCW仿真
7.2.2 GPS抗干扰
7.2.3 雷达LFM
7.2.4 雷达MIMO
7.2.5 雷达测角
7.2.6 雷达成像
7.2.7 雷达定位
7.2.8 雷达回波
7.2.9 雷达检测
7.2.10 雷达数字信号处理
7.2.11 雷达通信
7.2.12 雷达相控阵
7.2.13 雷达信号分析
7.2.14 雷达预警
7.2.15 雷达脉冲压缩
7.2.16 天线方向图
7.2.17 雷达杂波仿真

7.3 生物电信号
7.3.1 肌电信号EMG
7.3.2 脑电信号EEG
7.3.3 心电信号ECG
7.3.4 心脏仿真

7.4 通信系统
7.4.1 DOA估计
7.4.2 LEACH协议
7.4.3 编码译码
7.4.4 变分模态分解
7.4.5 超宽带仿真
7.4.6 多径衰落仿真
7.4.7 蜂窝网络
7.4.8 管道泄漏
7.4.9 经验模态分解
7.4.10 滤波器设计
7.4.11 模拟信号传输
7.4.12 模拟信号调制
7.4.13 数字基带信号
7.4.14 数字信道
7.4.15 数字信号处理
7.4.16 数字信号传输
7.4.17 数字信号去噪
7.4.18 水声通信
7.4.19 通信仿真
7.4.20 无线传输
7.4.21 误码率仿真
7.4.22 现代通信
7.4.23 信道估计
7.4.24 信号检测
7.4.25 信号融合
7.4.26 信号识别
7.4.27 压缩感知
7.4.28 噪声仿真
7.4.29 噪声干扰

7.5 无人机通信

7.6 无线传感器定位及布局方面
7.6.1 WSN定位
7.6.2 高度预估
7.6.3 滤波跟踪
7.6.4 目标定位
7.6.4.1 Dv-Hop定位
7.6.4.2 RSSI定位
7.6.4.3 智能算法优化定位
7.6.5 组合导航

8 电力系统方面
微电网优化、无功优化、配电网重构、储能配置

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值