A Transformer-based Framework for Multivariate Time Series Representation Learning(KDD2022)

A Transformer-based Framework for Multivariate Time Series Representation Learning(KDD2022)

提出了一种基于transformer编码器结构的多元时间序列表示学习新框架。该框架包括一个无监督的训练前计划,它可以在下游任务上提供比完全监督学习更大的性能优势,即使不利用额外的无标记数据,也就是说,通过重用现有的数据样本。在多个不同领域和具有不同特征的公共多元时间序列数据集上评估我们的框架,我们证明它的性能明显优于目前可用的最佳回归和分类方法,即使是对仅包含几百个训练样本的数据集。考虑到无监督学习在科学和工业的几乎所有领域的显著兴趣,这些发现代表了一个重要的里程碑,提出了第一个无监督方法,被证明是推动多元时间序列回归和分类的最先进性能的极限

背景:在这项工作中,我们首次研究了将transformer编码器用于多元时间序列的无监督表示学习,以及用于时间序列回归和分类的任务。据我们所知,这也是无监督学习第一次被证明在多元时间序列的分类和回归方面优于有监督学习,即使不使用额外的未标记数据样本

总结:对文中提出的模型 不是很清楚,transformer encoder内部结构 ;其次存在大量学习时间序列无监督表征模型,这个模型在结构上到底和这类模型设计有什么区别。

框架:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Crossformer是一种利用交叉维度依赖性进行多元时间序列预测的Transformer模型。这个模型的动机是填补之前Transformer在处理多元时间序列时对不同变量之间关系刻画不足的问题。之前的Transformer更多地关注如何通过时间维度的注意力机制建立时序上的关系,而忽略了变量之间的关系。Crossformer通过引入时间维度和变量维度两个阶段的注意力机制来解决这个问题。特别是在变量维度上,Crossformer提出了一种高效的路由注意力机制。这篇论文填补了多元时间序列预测中变量关系建模的空白,并在ICLR2023中被提出。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* *3* [【ICLR 2023】 CrossFormer增强多元时间序列建模能力](https://blog.csdn.net/qq_33431368/article/details/129483613)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [读论文《Crossformer:利用跨维度依赖进行多变量时间序列预测的Transform》](https://blog.csdn.net/vzvzvzv/article/details/131376526)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值