2023年11月论文:DANCE OF CHANNEL AND SEQUENCE(CSformer)(无源码)

DANCE OF CHANNEL AND SEQUENCE:
AN EFFICIENT ATTENTION-BASED APPROACH FOR
MULTIVARIATE TIME SERIES FORECASTING

推荐阅读指数: ★★
大意了,没仔细看实验结果和模型图,精度了一篇有点不太行的文章,实验结果只有一张表,模型图又很简单,且机构也很一般。

摘要

摘要要

通道独立性导致信息退化,文章提出CSformer来应对这一问题,CSformer中精心设计了两阶段的自注意力机制,该机制可以分别提取特定序列信息和通道信息,同时共享参数,还引入了序列适配器和通道适配器,实验结果领先

其创新点就是同时结合了序列和通道注意力,下图为对比

在这里插入图片描述

详细摘要

在最近的发展中,用于多变量时间序列分析的预测模型通过采用普遍的通道独立性原则展现出令人赞赏的性能。然而,必须承认通道之间的复杂相互作用根本上影响了多变量预测的结果。(针对通道独立性)

因此,尽管通道独立性的概念在一定程度上提供了实用性,但随着情况的发展,这变得越来越不切实际,导致信息的退化。为了应对这一紧迫问题,我们提出了CSformer,这是一个创新的框架,其特点是精心设计的两阶段自注意机制

这个机制能够分别提取特定序列信息和特定通道信息,同时共享参数以促进序列和通道之间的协同和相互强化。同时,我们引入了序列适配器和通道适配器,确保模型能够识别跨各个维度的显著特征。这一增强显著提升了多变量时间序列数据特征提取的能力,促进了对可用信息的更全面利用。
我们在真实世界的多个数据集上进行了实验,证明了模型的鲁棒性和先进性,保持了基于transform的模型的领先地位。

贡献

propose CSformer
CSformer achieves state-of-the-art performance
conducted an extensive array of ablation experiments

(给人感觉水了吧唧的)

模型介绍

(这图有点lowlow的)
在这里插入图片描述

过程

  1. 可逆的归一化
    在这里插入图片描述

  2. 维度增广
    在这里插入图片描述

  3. 两阶段多头注意力机制( two-stage Multi-head Self-Attention)

差别就是交换了N和L维度
在这里插入图片描述

实验

只给出了对比实验的结果
包括iTransformer和CSformer
在这里插入图片描述

评价

这文章缺东西呀,提到的两阶段的参数共享机制没有讲,贡献里面提到的消融实验也没有讲,哈哈哈哈哈血亏

  • 17
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值