FEDformer:频率增强分解Transformer项目推荐

FEDformer:频率增强分解Transformer项目推荐

FEDformer FEDformer 项目地址: https://gitcode.com/gh_mirrors/fe/FEDformer

1. 项目基础介绍和主要编程语言

FEDformer(Frequency Enhanced Decomposed Transformer)是一个用于长期时间序列预测的开源项目,由Tian Zhou、Ziqing Ma、Qingsong Wen、Xue Wang、Liang Sun和Rong Jin等人开发。该项目在2022年国际机器学习会议(ICML 2022)上发表,旨在通过频率增强分解Transformer模型提高时间序列预测的效率和准确性。

该项目主要使用Python作为编程语言,并依赖于PyTorch深度学习框架。

2. 项目核心功能

FEDformer的核心功能是通过频率增强分解Transformer模型来提高时间序列预测的效率和准确性。具体来说,FEDformer在以下几个方面表现出色:

  • 线性复杂度:相比于标准的Transformer模型,FEDformer具有线性复杂度,能够更高效地处理长序列数据。
  • 频率增强注意力机制:通过引入频率增强注意力机制,FEDformer能够更好地捕捉时间序列中的周期性和趋势性。
  • 分解Transformer:FEDformer采用了分解Transformer结构,能够有效地分解时间序列中的不同成分,从而提高预测精度。

3. 项目最近更新的功能

截至最新更新,FEDformer项目的主要更新包括:

  • 实验脚本优化:提供了更详细的实验脚本,用户可以通过运行/scripts/run_M.sh/scripts/run_S.sh分别复现多变量和单变量时间序列的实验结果。
  • 数据集支持:增加了对六个基准数据集的支持,用户可以从AutoformerInformer项目中获取这些数据集。
  • 模型训练优化:优化了模型的训练过程,提高了训练效率和预测精度。

通过这些更新,FEDformer项目在长期时间序列预测任务中表现更加出色,为用户提供了更强大的工具和更便捷的使用体验。

FEDformer FEDformer 项目地址: https://gitcode.com/gh_mirrors/fe/FEDformer

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

盛璟珩

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值