【CEEMDAN-VMD-Transformer-LSTM】双重分解+Transformer-LSTM多变量时序预测

import numpy as np
import ceemdan
import vmd
from sklearn.preprocessing import MinMaxScaler
from sklearn.model_selection import train_test_split
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import LSTM, Dense
from transformers import TransformerModel, TFAutoModel

生成示例数据

假设我们有一个包含多个变量的时间序列数据,存储在一个二维数组中

data = np.random.rand(100, 3) # 这里假设有3个变量,时间步长为100

数据预处理

scaler = MinMaxScaler()
scaled_data = scaler.fit_transform(data)

使用CEEMDAN进行信号分解

emd = ceemdan.CEEMDAN()
imfs = emd.ceemdan(scaled_data)

使用VMD进行信号分解

vmd = vmd.VMD()
modes = vmd.decompose(scaled_data.T)

将分解后的信号重新组合为训练集和测试集

这里假设我们使用最后一个分解模式作为目标变量

X = np.concatenate(imfs[:-1], axis=1)
y = modes[-1].T

划分训练集和测试集

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, shuffle=False)

使用Transformer进行特征提取

transformer_model = TFAutoModel.from_pretrained(“bert-base-uncased”)
transformer = TransformerModel(transformer_model)

X_train_transformed = transformer.predict(X_train)
X_test_transformed = transformer.predict(X_test)

定义LSTM模型

model = Sequential()
model.add(LSTM(64, input_shape=(X_train_transformed.shape[1], X_train_transformed.shape[2])))
model.add(Dense(y_train.shape[1]))
model.compile(loss=‘mean_squared_error’, optimizer=‘adam’)

训练模型

model.fit(X_train_transformed, y_train, epochs=100, batch_size=32, verbose=2)

在测试集上进行预测

predictions = model.predict(X_test_transformed)

将预测结果反向缩放

scaled_predictions = scaler.inverse_transform(predictions)

打印预测结果

print(scaled_predictions)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

天天酷科研

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值