Transformer模型 | iTransformer时序预测

17 篇文章 49 订阅 ¥29.90 ¥99.00

Transformer 模型在自然语言处理和计算机视觉领域取得了巨大的成功,并成为了基础模型。然而,最近一些研究开始质疑基于Transformer的时间序列预测模型的有效性。这些模型通常将同一时间戳的多个变量嵌入到不可区分的通道中,并在这些时间标记上应用注意力机制来捕捉时间依赖关系。

近日,来自清华大学软件学院机器学习实验室和蚂蚁集团研究人员合作发布的一篇时间序列预测论文,试图打破质疑,引起业界热议。

鉴于对Transformer的预测模型的争议,研究者反思了为什么Transformer在时间序列预测中的表现甚至不如线性模型。因此,这篇论文里提出了iTransformer作为针对时间序列进行最小适应的基本骨干,其原生组件自然地处理了反转的维度,即讨论了倒置Transformer在时间序列预测方面的有效性。

iTransformer 将每个时间序列嵌入为变量令牌,并使用前馈网络进行序列编码,以捕捉多元相关性。iTransformer 模型在真实数据集上获得了更先进的性能,为改进基于Transformer的预测器提供了有希望的方向。

论文地址:https://arxiv.org/abs/2310.06625

论文源码:https://github.com/thuml/Time-Series-Library
该论文的问题背景是关于基于Transformer的时间序列预测模型的架构修改是否合理的讨论。

传统的Transformer模型在时间序列预测中存在性能下降和计算爆炸的问题,同时对于具有较大回溯窗口的序列预测也存在挑战。此外,传统的Transformer模型将每个时间步的多个变量嵌入到同一个标记中,可能导致学习到的注意力图无意义。

因此,该论文提出了一种称为iTransformer的新方法,通过重新设计Transformer架构,将注意力机制和前馈网络的

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Transformer模型是一种基于注意力机制的神经网络模型,它主要用于自然语言处理领域。但是,由于其良好的并行性和能够捕捉长距离依赖关系的能力,它也被广泛应用于时序数据预测领域。 Transformer模型时序数据预测的原理如下: 1. 输入编码:将时序数据输入到Transformer模型中时,首先会对其进行编码。输入编码器将每个时刻的特征向量转换为一个高维向量,并加入位置编码以保留时序信息。 2. 自注意力机制:Transformer模型中最重要的组成部分是自注意力机制。在这种机制中,模型会通过对输入序列中的每个位置进行加权求和,来计算出每个位置与其他所有位置的相关性。这种注意力机制能够有效地捕捉到输入序列中的长距离依赖关系。 3. 多头注意力机制:为了进一步提高模型的性能,Transformer模型还使用了多头注意力机制。这种机制可以并行计算多个注意力头,从而提高了模型的泛化能力。 4. 解码器:在对输入序列进行编码之后,模型会将编码结果输入到解码器中,以生成预测序列。解码器也使用了自注意力和多头注意力机制,以便在生成预测序列时能够捕捉到输入序列中的重要信息。 5. 输出层:最后,模型会通过一个输出层将解码器的输出转换为最终的预测结果。输出层通常使用一个全连接层,其输出为预测序列中每个时刻的预测值。 总之,Transformer模型通过自注意力和多头注意力机制,能够有效地捕捉输入序列中的长距离依赖关系,并生成准确的预测序列。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

算法如诗

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值