#今日论文推荐#【ICML2022】FEDformer:用于长期序列预测的频率增强分解Transformer
尽管基于Transformer的方法显著改善了长期序列预测的最先进结果,但它们不仅计算成本高,更重要的是,无法捕捉时间序列的全局视图(例如,总体趋势)。为了解决这些问题,我们提出将Transformer与季节趋势分解方法相结合,其中分解方法捕获时间序列的全局剖面,而Transformer捕获更详细的结构。为了进一步增强Transformer的长期预测性能,我们利用了大多数时间序列倾向于以众所周知的基(如傅里叶变换)为基础进行稀疏表示的事实,并开发了频率增强Transformer。该方法被称为频率增强分解变换器(federformer),除具有更高的效率外,它比序列长度线性复杂度的标准变压器效率更高。在6个基准数据集上的实证研究表明,对于多变量和单变量时间序列,FEDformer方法的预测误差分别比现有方法降低了14.8%和22.6%。代码将很快发布。
论文题目:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting
详细解读:https://www.aminer.cn/research_report/6286fd9f7cb68b460fbcce1e?download=falsehttps://www.aminer.cn/research_report/6286fd9f7cb68b460fbcce1e?download=false
AMiner链接:https://www.aminer.cn/?f=cs