区间预测 | MATLAB实现QRLSTM长短期记忆神经网络分位数回归时间序列区间预测

区间预测 | MATLAB实现QRLSTM长短期记忆神经网络分位数回归时间序列区间预测

效果一览

  • 进阶版
    1
    2
    3

  • 基础版

1

基本介绍

MATLAB实现QRLSTM长短期记忆神经网络分位数回归时间序列区间预测
QRLSTM是一种基于长短期记忆(LSTM)神经网络的模型,用于时间序列区间预测。它是使用分位数回归来进行预测的,这意味着它可以预测一系列可能的结果,而不仅仅是单个点预测。
具体来说,QRLSTM使用LSTM网络来学习时间序列的长期和短期依赖关系,然后使用分位数回归来预测一系列可能的结果。分位数回归是一种非常有用的技术,它可以预测出给定置信水平下的上限和下限,这对于时间序列预测非常有用。
QRLSTM模型的预测能力很强,特别是在处理非线性时间序列时。它已经被广泛应用于股票市场、气象预测、交通预测等领域。

模型描述

QRLSTM模型的数学公式如下:
首先,我们定义LSTM网络中的隐藏状态和细胞状态:

h t , c t = LSTM ( x t , h t − 1 , c t − 1 ) h_t,c_t=\text{LSTM}(x_t,h_{t-1},c_{t-1}) ht,ct=LSTM(xt,ht1,ct1)

  • 其中, x t x_t xt是时间步 t t t的输入, h t − 1 h_{t-1} ht1 c t − 1 c_{t-1} ct1分别是上一时间步的隐藏状态和细胞状态。

然后,我们定义分位数回归的损失函数:

L τ = ∑ i = 1 n ρ τ ( y i − f θ ( x i ) ) \mathcal{L}{\tau}=\sum{i=1}^{n}\rho_{\tau}(y_i-f_{\theta}(x_i)) Lτ=i=1nρτ(yifθ(xi))

  • 其中, τ \tau τ是分位数水平, y i y_i yi是时间序列在时间步 i i i的真实值, f θ ( x i ) f_{\theta}(x_i) fθ(xi)是模型在时间步 i i i的预测值, ρ τ ( u ) \rho_{\tau}(u) ρτ(u)是分位数损失函数:

ρ τ ( u ) = { τ u  if  u ≥ 0   ( τ − 1 ) u  if  u < 0 \rho_{\tau}(u)=\begin{cases} \tau u & \text{ if } u \geq 0 \ (\tau-1)u & \text{ if } u < 0 \end{cases} ρτ(u)={τu if u0 (τ1)u if u<0

最终我们的目标是最小化所有分位数水平下的损失函数:

L = ∑ τ ∈ τ 1 , τ 2 , . . . , τ T L τ \mathcal{L}=\sum_{\tau\in{\tau_1,\tau_2,...,\tau_T}}\mathcal{L}_{\tau} L=ττ1,τ2,...,τTLτ

  • 其中, τ 1 , τ 2 , . . . , τ T {\tau_1,\tau_2,...,\tau_T} τ1,τ2,...,τT是一组分位数水平。

QRLSTM模型使用随机梯度下降或者其他优化算法最小化上述损失函数,从而得到最优的模型参数。

程序设计

%-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
% lstm
layers = [ ...
    sequenceInputLayer(inputSize,'name','input')   %输入层设置
    lstmLayer(numhidden_units1,'Outputmode','sequence','name','hidden1') 
    dropoutLayer(0.3,'name','dropout_1')
    lstmLayer(numhidden_units2,'Outputmode','last','name','hidden2') 
    dropoutLayer(0.3,'name','drdiopout_2')
    fullyConnectedLayer(outputSize,'name','fullconnect')   % 全连接层设置(影响输出维度)(cell层出来的输出层) %
    quanRegressionLayer('out',i)];

% 参数设定
opts = trainingOptions('adam', ...
    'MaxEpochs',10, ...
    'GradientThreshold',1,...
    'ExecutionEnvironment','cpu',...
    'InitialLearnRate',0.001, ...
    'LearnRateSchedule','piecewise', ...
    'LearnRateDropPeriod',2, ...   %2个epoch后学习率更新
    'LearnRateDropFactor',0.5, ...
    'Shuffle','once',...  % 时间序列长度
    'SequenceLength',1,...
    'MiniBatchSize',24,...
    'Verbose',0);

%-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
% 网络训练
tic
net1 = trainNetwork(xnorm,ynorm,layers,opts);
trainNetwork(xnorm,ynorm,layers,opts);
end
————————————————
版权声明:本文为CSDN博主「机器学习之心」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/kjm13182345320/article/details/127380096

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/127931217
[2] https://blog.csdn.net/kjm13182345320/article/details/127418340

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
LSTM长短期记忆神经网络是一种适用于序列数据的深度学习模型,常用于时间序列预测任务。下面介绍如何使用Matlab实现LSTM长短期记忆神经网络多变量时间序列预测。 1. 准备数据 首先,需要准备多变量时间序列数据,即多个变量随时间变化的数据。例如,可以使用Matlab自带的airline数据集作为示例数据。将数据集导入Matlab,然后将其转换为时间序列对象。 ```matlab data = readtable('airline.csv'); data = table2timetable(data); ``` 2. 数据预处理 接下来,需要对数据进行预处理,以便用于模型训练。首先,将数据集分为训练集和验证集。 ```matlab train_data = data(1:120,:); val_data = data(121:end,:); ``` 然后,对每个变量进行归一化处理,以使其值在0到1之间。 ```matlab data_normalized = normalize(data,'zscore'); ``` 最后,将数据序列转换为输入和输出序列。对于每个时间步,将前面的几个时间步作为输入,预测下一个时间步的输出。这里将前10个时间步作为输入,预测下一个时间步的输出。 ```matlab XTrain = []; YTrain = []; for i=1:110 XTrain(:,:,i) = data_normalized{i:i+9,:}; YTrain(i,:) = data_normalized{i+10,:}; end ``` 同样地,对验证集进行相同的操作。 ```matlab XVal = []; YVal = []; for i=1:14 XVal(:,:,i) = data_normalized{110+i:119+i,:}; YVal(i,:) = data_normalized{129+i,:}; end ``` 3. 构建LSTM模型 接下来,需要构建LSTM模型。这里使用Matlab自带的LSTM层和FullyConnected层构建模型。输入序列的长度为10,输出序列的长度为1。模型中包含两个LSTM层和两个FullyConnected层,每个LSTM层和FullyConnected层的节点数为64。 ```matlab numFeatures = size(XTrain,2); numResponses = size(YTrain,2); numHiddenUnits = 64; layers = [ ... sequenceInputLayer(numFeatures) lstmLayer(numHiddenUnits,'OutputMode','sequence') lstmLayer(numHiddenUnits,'OutputMode','last') fullyConnectedLayer(64) dropoutLayer(0.5) fullyConnectedLayer(numResponses) regressionLayer]; options = trainingOptions('adam', ... 'MaxEpochs',100, ... 'GradientThreshold',1, ... 'InitialLearnRate',0.005, ... 'LearnRateSchedule','piecewise', ... 'LearnRateDropFactor',0.2, ... 'LearnRateDropPeriod',20, ... 'ValidationData',{XVal,YVal}, ... 'ValidationFrequency',5, ... 'Plots','training-progress', ... 'Verbose',false); net = trainNetwork(XTrain,YTrain,layers,options); ``` 4. 模型预测 训练完成后,可以使用模型对测试集进行预测。首先将测试集数据归一化处理,然后将其转换为输入序列。 ```matlab data_test_normalized = normalize(data(121:end,:),'zscore'); XTest = []; for i=1:14 XTest(:,:,i) = data_test_normalized{i:i+9,:}; end ``` 最后,使用模型对测试集进行预测,并将预测结果反归一化处理。 ```matlab YPred = predict(net,XTest); YPred = YPred .* std(data{121:end,:}) + mean(data{121:end,:}); ``` 5. 结果可视化 最后,将模型预测结果与测试集真实值进行比较,以评估模型的预测性能。 ```matlab figure plot(data{121:end,:}) hold on plot(YPred,'.-') hold off legend(["Observed" "Predicted"]) ylabel("Passengers") title("Forecast") ``` 通过可视化结果,可以评估模型的预测性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

机器学习之心

谢谢支持!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值