时间序列预测
文章平均质量分 69
西西弗的小蚂蚁
不要辜负这美好的时光!
展开
-
Frequency-domain MLPs are More Effective Learners in Time Series Forecasting
FreTS的频率学习架构如图所示,主要包括域转换/反演阶段、频域mlp以及相应的两个学习器,即频通道学习器(frequency Channel Learner)和频时学习器(frequency Temporal Learner)。在13个现实世界基准(包括7个短期预测基准和6个长期预测基准)上进行的广泛实验表明,我们的方法优于最先进的方法。使用傅里叶变换可以将时间序列信号分解成其组成频率,正如前面在图1(a)中提到的,在频谱中学习有助于捕获更多的周期模式。频率时间学习器的目的是学习频域中的时间模式。原创 2023-11-10 17:20:18 · 293 阅读 · 0 评论 -
Online Anomalous Subtrajectory Detection onRoad Networks with Deep Reinforcement Learning
虽然针对这项任务提出了许多方法,但它们都存在各种问题,包括(1)无法检测异常子轨迹,这些异常子轨迹是轨迹数据中的细粒度异常,和/或(2)非数据驱动,和/或(3)需要足够的监督标签,这些标签的收集成本很高。RL4OASD包括两个网络,一个负责学习道路网络和轨迹的特征,另一个负责根据学习到的特征检测异常子轨迹,这两个网络可以在没有标记数据的情况下迭代训练。ASDNet输出精炼的路段标签,这些标签进一步用于再次训练RSRNet,然后RSRNet为ASDNet提供更好的观测值,以训练更好的策略。原创 2023-08-03 14:43:07 · 8 阅读 · 0 评论 -
First De-Trend then Attend:Rethinking Attention for Time-Series Forecasting
最近有很多基于Attention的用Transformer来做时间序列预测的文章,无论是从时域(比如Informer等)还是频域(FEDformer等),花样百出。如下图所示,分别是时域Attention、傅里叶变换频域Attention、小波变换频域Attention。本文就从理论层面和实验层面,来给出一些准则,说明究竟在哪些实际情况用时域的Attention好,哪些情况用频域的Attention好。基于上述这些结论,本文还设计了一些基于Transformer和MLP的预测模型,TDformer。原创 2023-08-02 11:11:10 · 13 阅读 · 0 评论 -
Dish-TS: A General Paradigm for Alleviating Distribution Shift in Time Series Forecasting(AAAI2023)
具体来说,双conet由两个独立的conet组成:(1)BACKCONET,产生系数来估计输入空间的分布(回看),以及(2)HORICONET,产生系数来推断输出空间的分布(地平线)。为缓解空间内和空间间的移位,将Dish-TS组织为一个双conet框架,以分别学习输入空间和输出空间的分布,自然地捕获了两个空间的分布差异。本文提出一种系数网(CONET),用于学习更好的分布测量,以捕获漂移。i)空间内移动,即输入空间内的分布随着时间的推移而移动,以及(ii)空间间移动,即分布在输入空间和输出空间之间移动。原创 2023-03-02 15:27:41 · 201 阅读 · 0 评论 -
PARROT: pattern-based correlation exploitation in big partitioned data series
该过程涉及三个主要步骤:(1)全局索引查找(集中式处理),用于识别包含若干(2)对与识别出的p -模式相关联的候选集进行va -签名的局部索引查找(分布式处理);在真实和合成数据集上的大量实验表明,与其他最新的解决方案相比,PARROThas大大降低了索引构建成本、更小的存储开销,以及处理相似性查询的性能和准确性。给定半径参数r,图案p是s空间中的一个球间距区域,其中p.c和p.r表示pattern的枢轴中心和半径, s空间是由原始数据序列对象n空间生成的降维特征空间,其中s原创 2023-02-28 19:44:44 · 28 阅读 · 0 评论 -
A Pattern Discovery Approach to Multivariate Time SeriesForecasting
针对这一不足,介绍了数据、方法和评估策略的分类方法,利用这些分类方法对无监督时间序列异常检测进行了全面的概述,并系统地评估和比较了最先进的传统和深度学习技术。本文提出一种新的深度自回归高斯过程模型,称为自回归高斯过程(AutoGP),集成了一种不同的机制来训练一个能够捕获全局时间和全局多元相关性的预测模型。本文没有在深度自回归高斯过程中手动分配一个简单的核作为先验知识,而是引入了核关联搜索(KAS)的新概念,能够探索基本核和有效地发现复杂核,从而能够学习多元时间序列中的全局时间和多元相关性。原创 2023-02-26 18:45:54 · 33 阅读 · 0 评论 -
AnalyticDB-V: A Hybrid Analytical Engine Towards Query Fusion for Structured and Unstructured Data
此外,还提出了一种新的人工神经网络算法,以提高对表示大量非结构化数据的大规模向量的准确性。在ADBV中,所有的人工神经网络算法都被实现为物理算子,同时,提出了精度感知的基于代价的优化技术来识别有效的执行计划。在索引构建阶段,IVFPQ[23]算法使用k-means聚类算法对PQ编码进行分组,在查询阶段,只扫描与查询最相关的分组。然而,在大多数系统中,对非结构化数据和结构化数据的查询往往被视为不相关的任务,混合查询(即同时涉及两种数据类型)尚未得到完全支持。因此,HNSW适合支持新插入数据的查询。原创 2023-02-24 23:44:03 · 20 阅读 · 0 评论 -
Class-Specific Explainability for Deep Time Series Classifiers
本文研究了多类时间序列分类器的类特定可解释性公开问题:给定一个时间序列和一个预训练的多类分类器,旨在为分类器的预测类生成一个类特定的显著性图。本文设计了一种新的可解释性方法DEMUX,通过自适应地确保其解释突出模型专门用于其预测类的输入时间序列中的区域,来学习用于解释深度多类时间序列分类器的显著图。DEMUX采用一种基于梯度的方法,由三个相互依赖的模块组成,组合起来生成一致的、特定于类的显著图,这些显著图既忠实于分类器的行为,又易于被最终用户理解。然而,现有的多类时间序列分类器可。原创 2023-02-22 20:44:07 · 4 阅读 · 0 评论 -
Neuro-symbolic Models for Interpretable Time Series Classification using Temporal Logic Description
本文提出神经符号时间序列分类(NSTSC),一种神经符号模型,利用信号时序逻辑(STL)和神经网络(NN)来完成多视图数据表示的TSC任务,并将模型表示为人类可读、可解释的公式。然而,以往的工作仅显式地对时间序列与类别之间的关系进行建模,忽略了关系的多样性,信息利用不足。在包含111,888个多结果手术的大数据集和外部高分辨率ICU数据集上的实验表明,所提出模型可以实现强大的预测性能(即高准确性),并为基于术中时间序列的预测结果提供鲁棒的解释(即高透明度)。主要的术后并发症对手术患者是毁灭性的。原创 2023-02-22 20:21:36 · 7 阅读 · 0 评论 -
Neural Decomposition of Time-Series Data for Effective Generalization
本文提出一种用于时间序列数据分析和外推的神经网络技术,称为神经分解(ND)。具有正弦激活函数的单元用于将训练样本进行类似傅里叶的分解,分解为正弦函数的和,并通过具有非周期激活函数的单元来增广,以捕获线性趋势和其他非周期成分。展示了如何将谨慎的权重初始化与正则化相结合,以形成一个具有良好泛化能力的简单模型。原创 2023-02-21 23:44:58 · 10 阅读 · 0 评论 -
Neural basis expansion analysis with exogenous variables: Forecasting electricity prices with NBEATS
此外,所提出的神经网络具有可解释的配置,可以对时间序列进行结构分解,可视化趋势和季节成分的相对影响,并揭示建模过程与外生因素的相互作用。降水量肯定在未来不知道,这和前面提到的未来可知时变协变量形成了鲜明的对比,也就是说,这种协变量在预测时,你只知道它过去的信息,无法得到它未来的信息,要是真知道了不就跟作弊一样。的一个例子是,我有几个风力发电站,我想预测每个风力发电站的发电量,可能风电站的位置对预测也很重要,所以它的位置坐标可以当成协变量,之所以称为静态的,是因为对每个发电站来说,位置永远是不变的。原创 2023-02-21 23:41:07 · 20 阅读 · 0 评论 -
Preformer: Predictive Transformer with Multi-ScaleSegment-wise Correlations for Long-Term Time Seri
基于transformer的方法在长期时间序列预测中显示出了巨大的潜力。然而,这些方法大多采用标准的逐点自注意力机制,其复杂性随着时间序列长度的二次增长而难以进行长期预测,而且由于对应的键和值是从同一点转换而无法显式捕获来自上下文的预测依赖。本文提出了一种基于transformer的预测模型Preformer。Preformer引入了一种新的高效的多尺度分段相关机制,将时间序列划分为多个分段,并利用分段相关注意力对时间序列进行编码。提出了一种多尺度结构来聚集不同时间尺度上的依赖关系,并便于段长度的选择。原创 2023-02-21 23:15:52 · 187 阅读 · 0 评论 -
First De-Trend then Attend:Rethinking Attention for Time-Series Forecasting
基于这些性能差异分析,本文提出了TDformer,该模型在季节趋势分解后,分别使用MLP和傅里叶注意力模型对趋势和季节性进行建模。:TDformer(趋势分解Transformer),首先应用季节趋势分解,然后将预测趋势分量的MLP与预测季节分量的傅里叶注意力相加组合,以获得最终预测。在基准时间序列预测数据集上的广泛实验表明,TDformer与现有的基于注意力的模型相比取得了最先进的性能。在理论上,不同领域的注意力模型在线性条件下是等效的(即注意力分数的线性核)。原创 2023-02-21 22:05:42 · 86 阅读 · 0 评论 -
C2FAR: Coarse-to-Fine Autoregressive Networks for Precise Probabilistic Forecasting
如图(a)所示,如果我们知道序列值的大概范围,就可以将这个值区间划分为12个容器,相当于对连续的序列值做了离散化(我这里用容器指代bin),这可以将预测问题变成分类问题。因此,可以使用一种分层的方式,由粗到细。如图(a)和图(c),如果是像图(b)中分两层的话,先将值区间划分为6个粗容器,然后每个粗容器内部又可以划分为6个细容器,这样的话,总共只需要12个容器索引,即可得到36个值区间。假如我们很清楚在我们的应用中处理的序列数据的值只会在有限的区间内,那用本文这种容器离散化的方式就很合适。原创 2023-02-21 21:44:15 · 9 阅读 · 0 评论 -
A TIME SERIES IS WORTH 64 WORDS: LONG-TERM FORECASTING WITH TRANSFORMERS
对于一个单变量序列(为什么是单变量,可以看下一小节Channel-independence中的介绍),将其划分为 N 个patch(可以是有重叠的,也可以是无重叠的,无重叠的情况就相当于Preformer中的均匀分段),每个patch的长度为 P。具体来说,它们都是将时间序列分成若干个时间段(Preformer里用的术语是segment,本文用的是patch,实际上是差不多的),每一个时间段视为一个token(这不同于很多Transformer-based模型将每一个时间点视为一个token)。原创 2023-02-21 11:44:08 · 11 阅读 · 0 评论 -
scaleformer: iterative multi-scale refining transformers for time series forecasting
此外,在各种公开数据集上的实验表明,所提出的改进优于相应的基线。然而,scale本身是不够的。本文提出一种通用的多尺度框架,可应用于最先进的基于transformer的时间序列预测模型(FEDformer, Autoformer等)。在多个尺度上迭代优化具有共享权重的预测时间序列,引入架构自适应和特殊设计的规范化方案,能够实现显著的性能提升。所提出的框架应用连续的transformer模块,在不同的时间尺度上迭代完善时间序列预测。最近,由于transformer的引入,时间序列预测的性能得到了极大的提高。原创 2023-02-21 10:50:55 · 263 阅读 · 0 评论 -
AutoST: Towards the Universal Modeling of Spatio-temporal Sequences
提出了一种通用的建模框架,该框架具有三个鲜明的特点:(i)基于注意力机制的网络骨干,包括S2T层(空间优先)、t2层(时间优先)和STS层(时空同步)。(ii)命名为UniST的通用建模框架,具有统一的架构,能够灵活地使用所提出的三个不同模块进行建模优先级。,仍然存在潜在的错误网络配置问题,即使用可替换的模型单元{t2层,S2T层,STS层}构建任意的建模顺序。时空序列的分析在许多现实世界的应用中起着重要的作用,需要较高的模型能力来捕捉空间和时间维度之间的相互依赖关系。设计了两种层合并方案。原创 2022-11-26 15:14:28 · 9 阅读 · 0 评论 -
Learning Latent Seasonal-Trend Representations for Time Series Forecasting
最后,提出了一种基于互信息约束的解耦变分推理框架,用于解耦潜空间中的季节趋势表示,以有效地预测时间序列。(1)从输入重构中,解剖了内在的季节趋势模式,这些模式可以很容易地从原始时间序列和现成的测量方法中获得,并据此设计了一系列辅助目标;(2)从表示本身出发,在保证季节和趋势表示之间的一致性的前提下,最小化季节和趋势表示之间的互信息(MI)。广泛的实验证明,LaST与最先进的表示学习和端到端预测模型相比,在时间序列预测任务上取得了最先进的性能。本文提出一种新的框架来学习潜在的季节趋势表示,用于时间序列预测。原创 2022-11-26 13:47:08 · 15 阅读 · 0 评论 -
Generative Time Series Forecasting with Diffusion, Denoise, and Disentanglement
具体地,提出一种耦合扩散概率模型,在不增加任意不确定性的情况下对时间序列数据进行增强,并利用BVAE实现更易于处理的推理过程。此外,为了增强预测的可解释性和稳定性,以多元的方式处理潜变量,并在最小化总相关性的基础上解缠它们。在这项工作中,我们采用了一种更有效的生成模型,即双向变分自动编码器(BVAE)[89],以取代扩散模型的反向过程。•我们提出了一种耦合扩散概率模型,旨在降低时间序列的任意不确定性,提高生成模型的泛化能力。•我们对生成模型的潜在变量进行解纠缠,以提高时间序列预测的可解释性。原创 2022-11-26 11:58:03 · 1083 阅读 · 1 评论 -
FiLM: Frequency improved Legendre Memory Model for Long-term Time Series Forecasting
最近的研究表明,rnn和transformer等深度学习模型在时间序列的长期预测中带来了显著的性能提升,因为它们有效地利用了历史信息。然而,我们发现如何在神经网络中保存历史信息,同时避免对历史中所呈现的噪声进行过拟合,仍有很大的改进空间。我们的实证研究表明,提出的FiLM在多变量和单变量长期预测中显著提高了现有模型的准确性(分别为20.3%和22.6%)。3.本文提出频率增强层(FEL),通过傅里叶分析和低秩矩阵近似的结合来降低维度,以最大限度地减少时间序列中噪声信号的影响,并缓解过拟合问题。原创 2022-11-26 11:05:21 · 767 阅读 · 0 评论 -
Multivariate Time-Series Forecasting with Temporal Polynomial Graph Neural Networks
提出一种时态多项式图神经网络(temporal polynomial graph neural network, TPGNN)用于MTS的精确预测,分两步将动态变量相关性表示为时态矩阵多项式。构建的结果在经验上捕获了由非重复随机游走模型生成的六个合成MTS数据集的精确动态相关性。然而,由于真实世界的MTS数据的相关性是时变的,使用静态图进行预测会导致显著的偏差。此外,在他们的工作中,没有进行实际相关性与学习相关性的差距分析,以验证其有效性。由于MTS数据具有复杂的隐变量相关性,其准确预测仍然具有挑战性。原创 2022-11-26 00:01:40 · 30 阅读 · 0 评论 -
SCINet: Time Series Modeling and Forecasting with Sample Convolution and Interaction
本文提出一种新的神经网络架构——样本卷积与交互网络(SCINet),用于时间序列建模和预测,受时间序列数据与通用序列数据相比的独特属性的启发。每个SCI-Block都具有整个时间序列的局部和全局视图,从而促进有用的时间特征的提取。在所有的下采样-卷积-交互操作之后,将提取的特征重新排列为新的序列表示,并将其添加到原始时间序列中,以全连接网络作为解码器进行预测。实验结果表明,与现有的卷积模型和基于transformer的解决方案相比,SCINet在各种真实世界的时间序列预测数据集上实现了显著的预测精度提升。原创 2022-11-25 22:04:56 · 1487 阅读 · 1 评论 -
Probabilistic Discovery of Time Series Motifs
该算法本质上是概率的,但正如我们根据经验和理论表明的那样,即使在存在噪声或“不关心”符号的情况下,它也可以以非常高的概率找到时间序列motif。该算法不仅速度快,而且是一个随时算法,几乎可以立即产生可能的候选motif,并随着时间的推移逐渐提高结果的质量。工作的两个局限性是motif发现算法的可扩展性差,以及在存在噪声的情况下无法发现motif。在早期的工作中,通过引入时间序列motif的概念,形式化了近似重复子序列的想法。它们的定义是特定于应用的,没有讨论可扩展性,更重要的是它们完全忽略了噪声的问题。原创 2022-11-12 11:00:30 · 7 阅读 · 0 评论 -
Streaming Pattern Discovery in Multiple Time-Series
发现的趋势还可以用来立即发现潜在的异常,进行有效的预测,更一般地说,可以大大简化进一步的数据处理。阅读者总结:这是一篇很有趣的论文,利用了统计上的方法实现隐藏变量的检测。可以将数百个数值流简化为少数几个隐藏变量,这些变量紧凑地描述了关键趋势,并极大地降低了进一步数据处理的复杂性。第一步,对于给定的k,增量更新k个参与权重向量wi, 1≤i≤k,从而只用少量数字(隐藏变量)总结原始流。(例如,同一栋建筑的温度、同一网络的流量、同一市场的价格等),SPIRIT还适应所需的隐藏变量的数量k,以捕获大多数信息。原创 2022-10-27 15:16:03 · 4 阅读 · 0 评论 -
Similarity Match Over High Speed Time-Series Streams
它最初的任务是寻找那些类似于模式(查询)时间序列数据的时间序列,其中模式和数据时间序列都是静态的。近年来,随着人们对流数据管理需求的不断增长,基于相似性的流时间序列检索因其在流数据处理中的独特要求,如一遍搜索、快速响应等,引起了新的研究热点。种新的时间序列表示方法,称为多尺度段均值(multi-scaled segment mean, MSM),用于流时间序列数据,它可以增量计算,因此可以完美地适应流的特性。大量的实验表明,与多尺度小波相比,多尺度表示结合多步滤波方案能够有效地过滤虚假候选和检测模式。原创 2022-10-27 13:35:10 · 3 阅读 · 0 评论 -
Bridging Self-Attention and Time Series Decomposition for Periodic Forecasting
DeepFS遵循编码器-解码器范式,其中编码器通过自注意力机制将起始值转换为每个时间戳的潜在表示,将这些嵌入转换为预测的周期序列和非周期序列的解码器,它们分别反映了周期性和趋势。学习到的傅立叶级数是一个周期性的归纳偏差,它明确地揭示了序列的周期性,以更好地预测。最近的高级深度学习模型,如循环神经网络(rnn)和transformer,由于其强大的表达能力,在建模自然语言等顺序数据方面达到了新的高度。现实世界的时间序列往往比一般的序列数据更具周期性,而最近的研究证实。本文研究在单变量时间序列预测中。原创 2022-10-23 15:44:26 · 4 阅读 · 0 评论 -
Multi-Task Synchronous Graph Neural Networks for Traffic Spatial-Temporal Prediction(sigspatial2021)
本文提出了一种多任务图同步神经网络(MTSGNN)来同步预测区域和区域之间的时空数据。提出了构建“多任务图表示”的方法,保留现有作品不能反映的区域和过渡信息。然后,我们的模型同步地捕捉多种类型的动态空间相关性,建立动态时间相关性模型,并对不同的时间步进行加权,以解决长期建模的问题。MTSGNN由三个核心部分组成(1)多任务图表示的构建。(2)堆叠式多任务同步图神经层(MTSGNLs)。每个多任务同步图神经层由堆叠的mtsgnm、一个GAGCN和一个TAM组成。...原创 2022-07-23 11:01:09 · 220 阅读 · 0 评论 -
OnlineSTL: Scaling Time Series Decomposition by 100x(VLDB2022)
将复杂时间序列分解为趋势、季节和余数成分,是实现时间序列异常检测、突变点检测和预测的重要基础。尽管已有许多批处理算法用于时间序列分解,但在高吞吐量和实时响应至关重要的在线可扩展环境中,没有一种算法能够很好地运行。提出了一种新颖的在线时间序列分解算法OnlineSTL,该算法具有良好的可扩展性,可用于高分辨率、高摄食率数据的实时指标监测。在不同的合成和真实时间序列数据集上的实验结果表明,在保持分解质量的前提下,OnlineSTL对于大的季节序列能够获得100倍数量级的加速比。问题:我们希望在一个分布式平台上实原创 2022-07-19 17:24:39 · 458 阅读 · 0 评论 -
FEDformer: Frequency Enhanced Decomposed Transformer for Long-termSeries Forecasting(ICML2022)
尽管基于transformer的方法显著改善了长期序列预测的最新结果,但它们不仅计算成本高,更重要的是,无法捕捉时间序列的全局视图(例如总体趋势)。为了解决这些问题,我们建议将Transformer与季节趋势分解方法相结合,其中分解方法捕获时间序列的全局剖面,而Transformer则捕获更详细的结构。为了进一步增强Transformer在长期预测中的性能,我们利用了大多数时间序列往往在众所周知的基(如傅里叶变换)中具有稀疏表示的事实,并开发了一种频率增强Transformer。该方法被称为频率增强分解变压原创 2022-07-07 13:46:30 · 2719 阅读 · 0 评论 -
BrainNet: Epileptic Wave Detection from SEEG with Hierarchical Graph Diffusion Learning
在这篇论文中,我们提出了第一个数据驱动的研究,在真实世界的SEEG数据集中检测癫痫波。SEEG在提供新机遇的同时,也带来了一些挑战。在临床实践中,癫痫波活动被认为在大脑的不同区域之间传播。这些传播途径,也被称为致痫网络,被认为是癫痫手术的关键因素。然而,如何为每个患者提取准确的致痫网络仍然是神经科学领域的一个开放性问题。此外,癫痫波和SEEG数据的性质不可避免地导致极度不平衡的标签和严重的噪音。为了应对这些挑战,我们提出了一种新的模型(BrainNet),该模型联合学习动态扩散图,并对脑电波扩散模式进行建模原创 2022-07-06 11:11:08 · 251 阅读 · 0 评论 -
RECONSTRUCTING NONLINEAR DYNAMICAL SYSTEMS FROMMULTI-MODAL TIME SERIES(ICML2022)
在物理学、生物学或医学中,经验观察到的时间序列通常是由一些潜在的动力系统(DS)产生的,这是科学感兴趣的目标。人们对收获机器学习方法以数据驱动、无监督的方式重建这个潜在的DS越来越感兴趣。在许多科学领域中,从多种数据模式中同时采样时间序列观测是很常见的,例如,在典型的神经科学实验中,电生理和行为时间序列。然而,目前用于重建决策系统的机器学习工具通常只关注一种数据模态。本文提出了一个多模态数据集成的通用框架,用于非线性DS重构和跨模态关系分析。该框架是基于动态可解释的递归神经网络作为非线性决策系统的一般逼近器原创 2022-06-28 11:54:43 · 343 阅读 · 0 评论 -
Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs(TKDE)
长期以来,多元时间序列预测在能源消耗和交通预测等实际应用中受到了广泛关注。虽然最近的方法显示出良好的预测能力,但它们受到三个基本限制。(i).离散神经体系结构:交错单独参数化的空间和时间块来编码丰富的底层模式,导致不连续的潜在状态轨迹和更高的预测数值误差。(ii)高复杂性:离散方法通过专用设计和冗余参数使模型复杂化,导致更高的计算和内存开销。依赖于图先验:依赖于预定义的静态图结构限制了它们在现实应用中的有效性和实用性。在本文中,我们提出了一个用动态图神经常微分方程(MTGODE)预测多元时间序列的连续模型,原创 2022-06-24 10:54:05 · 994 阅读 · 0 评论 -
Temporal Fusion Transformersfor Interpretable Multi-horizon Time Series Forecasting
Temporal Fusion Transformersfor Interpretable Multi-horizon Time Series ForecastingMulti-horizon forecasting通常包含一种复杂的混合输入包括静态(即时不变)协变量、已知的未来输入和其他只在过去观察到的外生时间序列,没有任何关于它们如何与目标相互作用的事先信息。已经提出了几种深度学习方法,但它们通常是黑箱模型,不能说明它们如何在实际场景中使用全部输入。在本文中,我们介绍了时间融合变压器(TFT){这是一种原创 2022-06-05 09:53:37 · 855 阅读 · 0 评论 -
Multi-Horizon Time Series Forecasting with Temporal Attention Learning
我们提出了一种新的数据驱动的方法来解决multi-horizon probabilistic forecasting tasks ,预测未来视界上时间序列的全部分布。我们说明隐藏在历史信息中的时间模式在长时间序列的准确预测中发挥着重要作用。传统方法依赖于手动设置时间依赖性来探索历史数据中的相关模式,这在根据真实数据预测长期序列方面是不现实的。相反,我们建议明确学习用深度神经网络构建隐藏模式表示,并关注历史的不同部分来预测未来。在本文中,我们提出了一种端到端的深度学习框架,用于多视域时间序列预测,通过时间注意原创 2022-06-10 09:45:12 · 591 阅读 · 0 评论 -
Two Birds with One Stone: Series Saliency for Accurate and Interpretable Multivariate Time Series...
Two Birds with One Stone: Series Saliency for Accurate and Interpretable Multivariate Time Series...进行准确和可解释的时间序列预测是重要的,但也是具有挑战性的。虽然深度学习方法可以提高预测精度,但往往会牺牲可解释性。在本文中,我们提出了一种新的系列显著性方案,以提高准确性和可解释性。通过从时间序列的滑动窗口中提取序列图像,我们设计了序列显著性作为序列图像与其扰动版本之间的一种混合策略,并在其之间添加了可学原创 2022-06-04 00:06:59 · 357 阅读 · 4 评论 -
Triformer: Triangular, Variable-Specific Attentions for Long Sequence Multivariate Time Series Fo...
Triformer: Triangular, Variable-Specific Attentions for Long Sequence Multivariate Time Series Fo...现实世界的各种应用都依赖于遥远未来的信息来进行决策,因此需要高效、准确的长序列多元时间序列预测。虽然最近的基于注意力的预测模型显示出在捕获长期相关性方面的强大能力,但它们仍然受到两个关键限制。首先,规范自我注意的复杂度为输入时间序列长度的二次多项式,效率不高;第二,不同变量的时间序列往往具有不同的时间动态,原创 2022-06-03 00:09:25 · 1115 阅读 · 0 评论 -
Towards Spatio-Temporal Aware Traffic Time Series Forecasting
Towards Spatio-Temporal Aware Traffic Time Series Forecasting摘要:由于复杂的时空动态,不同地点的时间序列往往具有不同的模式,交通时间序列预测具有挑战性;对于相同的时间序列,模式可能会随着时间而变化,例如,一天中某些时段显示出更强的时间相关性。尽管最近的预测模型,特别是基于深度学习的模型,显示出了良好的结果,但它们是时空不可知论的。这种时空不可知模型使用一个共享的参数空间,而不考虑时间序列位置和时间周期,它们假设时间模式在不同位置是相似的,不随原创 2022-06-05 09:52:34 · 351 阅读 · 0 评论 -
Time-Aware Multi-Scale RNNs for Time Series Modeling
Time-Aware Multi-Scale RNNs for Time Series Modeling多尺度信息对时间序列建模至关重要。虽然现有的大多数方法在时间序列数据中考虑了多个尺度,但它们假设所有的尺度对每个样本都是同等重要的,这使得它们无法捕捉到时间序列的动态时间模式。为此,我们提出了时间感知多尺度递归神经网络(TAMS-RNNs),它可以分解不同尺度的表示,并在每个时间步上自适应地为每个样本选择最重要的尺度。首先,将RNN的隐藏状态解耦为多个独立更新的小隐藏状态,利用不同的更新频率对时间序列原创 2022-06-03 00:06:34 · 835 阅读 · 0 评论 -
ST-Norm: Spatial and Temporal Normalization for Multi-variate Time Series Forecasting(KDD2021)
ST-Norm: Spatial and Temporal Normalization for Multi-variate Time Series Forecasting(KDD2021)多变量时间序列(MTS)数据是现实世界中普遍存在的一类数据抽象。MTS的任何实例都是由混合动力系统产生的,其具体动力学通常是未知的。这种动力系统的混合性质是复杂的外部影响的结果,从时间上可以概括为高频和低频,从空间上可以概括为全局和局部。这些影响也决定了MTS的未来发展,使其在时间序列预测任务中至关重要。然而,传统的方原创 2022-06-02 09:36:05 · 1302 阅读 · 1 评论 -
pyraformer: low-complexity pyramidal attention for long-range time series modeling and forecasting
pyraformer: low-complexity pyramidal attention for long-range time series modeling and forecasting以时间序列数据为基础,对过去的未来进行准确的预测是至关重要的,因为这为提前进行决策和风险管理打开了大门。在实践中,挑战是构建一个灵活但简洁的模型,可以捕获广泛的时间依赖性。在这篇论文中,我们通过探索时间序列的多分辨率表示来提出Pyraformer。具体地,我们引入了金字塔注意模块(PAM),其中尺度间树结构总结原创 2022-06-01 09:00:09 · 1222 阅读 · 1 评论