5时间序列
文章平均质量分 84
探索有关时间序列模型
汀沿河
共同学习
展开
-
8 时间序列相关工具介绍
NeuralForecast原创 2024-09-26 15:02:29 · 673 阅读 · 0 评论 -
7 时间序列单特征:多输入->多输出(LSTM/GRU/TCN)
时间序列原创 2024-08-02 15:38:43 · 519 阅读 · 0 评论 -
7.2 单变量(多->多),attention/informer
时间序列原创 2024-08-02 16:46:47 · 296 阅读 · 1 评论 -
6 时间序列(不同位置的装置如何建模): GRU+Embedding
很多算法比赛经常会遇到不同的物体产生同含义的时间序列信息,比如不同位置的时间序列信息,风力发电、充电桩用电。经常会遇到该如此场景,对所有数据做统一处理喂给模型,模型很难学到区分信息,因此设计如果对不同位置的装置做嵌入操作,这也是本文书写的主要目的之一,如果对不同位置装置的时序数据做模型呢?原创 2024-01-22 10:51:26 · 817 阅读 · 0 评论 -
5 时间序列预测入门:LSTM+Transformer
``python```- `d_model`:输入和输出的特征维度(隐藏单元数)。- `nhead`:多头注意力机制中的头数。- `dim_feedforward`:前馈神经网络中间层的维度。- `dropout`:Dropout 层的丢弃率。- `activation`:激活函数的类型,默认为 ReLU。`nn.TransformerEncoderLayer` 的输入和输出形状如下:输入形状:(序列长度, 批量大小, 特征维度) 或 (批量大小, 序列长度, 特征维度)。原创 2023-11-28 10:54:49 · 7808 阅读 · 2 评论 -
4 时间序列预测入门: LSTM+ATTENTION
对于一个给定的查询向量,MHA 会对键向量进行加权求和,权重由查询向量和键向量之间的相似度计算得到,然后将得到的加权和乘以值向量进行输出。MHA 的多头机制可以有效提高模型的表达能力,同时也可以使模型学习到更加多样化和复杂的特征。在多头机制下,输入的序列数据会被分成多个头,每个头进行独立的计算,得到不同的输出。Multi-Head Attention(MHA):MHA是一种多头注意力模型,将注意力机制扩展到多个头,从而增强模型对于不同特征的关注度。embed_dim: 所有的头总的输入维度。原创 2023-11-26 21:14:29 · 2432 阅读 · 0 评论 -
3 时间序列预测入门:TCN
TCN(全称Temporal Convolutional Network),时序卷积网络,是在2018年提出的一个卷积模型,但是可以用来处理时间序列。一维卷积:在时间步长方向(句子方向)进行滑动,并且输入通道的大小与词向量的大小相同。二维卷积: 先平移然后可下移(宽的方向、高的方向);原创 2023-11-26 15:02:48 · 1396 阅读 · 0 评论 -
2 时间序列预测入门:GRU
把这18个特征作为时步不长(记得是某个比赛的思路)然后特征长度为1 (类比词向量的size)用于控制前一时刻的状态信息被带入到当前状态中的程度,也就是更新门帮助模型决定到底要将多少过去的信息传递到未来,简单来说就是用于更新记忆。(RNN)的一种,可以解决RNN中不能长期记忆和反向传播中的梯度等问题,与LSTM的作用类似,不过比LSTM简单,容易进行训练。GRU 原论文:https://arxiv.org/pdf/1406.1078v3.pdf。决定了如何将新的输入信息与前面的记忆相结合。原创 2023-11-25 15:47:43 · 1438 阅读 · 0 评论 -
1 时间序列模型入门: LSTM
数据: 2023“SEED”第四届江苏大数据开发与应用大赛--新能源赛道的数据MARS开发者生态社区解题思路: 总共500个充电站状, 关联地理位置,然后提取18个特征;把这18个特征作为时步不长(记得是某个比赛的思路)然后特征长度为1 (类比词向量的size).import sysimport osimport gc# 读取数据# 聚合数据# 合并充电量数据### 合并数据# 后验初始值x0 = data[0] # 令第一个估计值,为当前值p0 = 1.0。原创 2023-11-25 15:12:36 · 1403 阅读 · 0 评论