时间序列数据表征学习
文章平均质量分 73
西西弗的小蚂蚁
不要辜负这美好的时光!
展开
-
Collectively Simplifying Trajectories in a Database: A Query Accuracy Driven Approach
这篇论文:想法还是比较容易的,主要是利用八叉树管理轨迹,具体采用立方体等方法,这是很常见的技术。其次使用强化学习方法创建八叉树 来达到查询驱动的目的,进而使得轨迹简化产生的误差尽可能满足查询精度的要求。由于存储和查询大量轨迹数据的成本很高,因此引入了轨迹简化技术,其直观目的是减少轨迹的大小,从而减少存储并加快查询速度,同时尽可能多地保留信息。我们没有使用可能在某种程度上间接产生具有高可用性的简化轨迹的误差度量,而是采用直接的方法进行简化,首先,它综合考虑数据库中的所有轨迹进行简化。原创 2023-11-23 12:01:50 · 545 阅读 · 0 评论 -
Frequency-domain MLPs are More Effective Learners in Time Series Forecasting
FreTS的频率学习架构如图所示,主要包括域转换/反演阶段、频域mlp以及相应的两个学习器,即频通道学习器(frequency Channel Learner)和频时学习器(frequency Temporal Learner)。在13个现实世界基准(包括7个短期预测基准和6个长期预测基准)上进行的广泛实验表明,我们的方法优于最先进的方法。使用傅里叶变换可以将时间序列信号分解成其组成频率,正如前面在图1(a)中提到的,在频谱中学习有助于捕获更多的周期模式。频率时间学习器的目的是学习频域中的时间模式。原创 2023-11-10 17:20:18 · 293 阅读 · 0 评论 -
One Fits All:Power General Time Series Analysis by Pretrained LM
尽管我们已经见证了预训练模型在自然语言处理(NLP)和计算机视觉(CV)领域的巨大成功,但在一般时间序列分析方面的进展有限。与NLP和CV可以使用统一的模型执行不同的任务不同,在分类、异常检测、预测和少量学习等每一个时间序列分析任务中,专门设计的方法仍然占主导地位。我们的结果表明,在自然语言或图像上进行预训练的模型可以在所有主要的时间序列分析任务中产生相当的或最先进的性能,如图1所示。利用预训练的语言模型提供一个统一的时间序列分析框架,处理不同的时间序列任务如:分类、异常检测、预测、少采样或零采样学习。原创 2023-11-05 13:27:43 · 290 阅读 · 0 评论 -
时间序列特征
通过在数据集上训练神经网络模型,并将其转移到新的目标数据集进行微调,即在没有对该目标数据进行显式再训练的情况下,最终的性能至少与针对目标数据集定制的最先进模型一样好。但是由于存在分布偏移、目标数据集的属性未知等多种原因,预期的性能增益往往无法实现,这些原因往往与时间序列的复杂性相结合,例如:数据集之间的时间动态变化大,语义变化大,不规则采样,系统因素等。值得注意的是,具有自关注机制的Transformer最初被提出用于对语言序列建模,这些语言序列的标记(例如,单词)是离散的且高度语义化的。原创 2023-10-26 23:30:10 · 321 阅读 · 0 评论 -
WHEN: AWavelet-DTW Hybrid Attention Network for Heterogeneous Time Series Analysis KDD2023
具有较短距离 的规整方式具有较大的注意力系数 ,因此,在输出 b 中,具有较短距离的规整方式将获得更多的关注。因为每个滑动窗口采样后的 和 长度是有限的,所以它们对应的规整方式也是有限的(同时在滑动窗口长度较短时,规整方式总数目也并不大),假设总共有 种不同的规整方式,它们对应的 种规整距离可以写为。通过专门设计的分析,详细探讨了when处理时间序列异质性的能力。图 4 中,动态时间规整注意力模块的输入记为序列 ,这里论文采用一个滑动窗口覆盖输入序列 ,形成了图中的 ,而图中的 则是一个可学习的参数序列。原创 2023-10-02 21:34:47 · 188 阅读 · 0 评论 -
MTS-Mixers: Multivariate Time Series Forecasting via Factorized Temporal and Channel Mixing
为了公平地比较预测性能,我们遵循相同的评估协议,其中ILI的历史视界长度设置为36,其他为96。ILI的预测长度为{24,36,48,60},其他的预测长度为{96,192,336,720}。为了公平比较,我们遵循相同的标准协议,将所有预测数据集按ETT数据集6:2:2和其他数据集7:1:2的比例分成训练集、验证集和测试集。记录了2002-2021年美国疾病控制与预防中心每周流感样疾病(ILI)患者数据,描述了观察到的ILI患者比例和患者总数。为了公平的比较,所有的基线都遵循相同的评估协议。原创 2023-08-02 16:34:09 · 27 阅读 · 0 评论 -
First De-Trend then Attend:Rethinking Attention for Time-Series Forecasting
最近有很多基于Attention的用Transformer来做时间序列预测的文章,无论是从时域(比如Informer等)还是频域(FEDformer等),花样百出。如下图所示,分别是时域Attention、傅里叶变换频域Attention、小波变换频域Attention。本文就从理论层面和实验层面,来给出一些准则,说明究竟在哪些实际情况用时域的Attention好,哪些情况用频域的Attention好。基于上述这些结论,本文还设计了一些基于Transformer和MLP的预测模型,TDformer。原创 2023-08-02 11:11:10 · 13 阅读 · 0 评论 -
Dish-TS: A General Paradigm for Alleviating Distribution Shift in Time Series Forecasting(AAAI2023)
具体来说,双conet由两个独立的conet组成:(1)BACKCONET,产生系数来估计输入空间的分布(回看),以及(2)HORICONET,产生系数来推断输出空间的分布(地平线)。为缓解空间内和空间间的移位,将Dish-TS组织为一个双conet框架,以分别学习输入空间和输出空间的分布,自然地捕获了两个空间的分布差异。本文提出一种系数网(CONET),用于学习更好的分布测量,以捕获漂移。i)空间内移动,即输入空间内的分布随着时间的推移而移动,以及(ii)空间间移动,即分布在输入空间和输出空间之间移动。原创 2023-03-02 15:27:41 · 201 阅读 · 0 评论 -
contrastive learning for unsupervised domain adaptation of time series
据我们所知,CLUDA是第一种为UDA在多元时间序列中学习域不变的上下文表示的方法。重要的是,我们的两个新组件-即我们的定制CL和NNCL -产生了明显的性能改进。据我们所知,我们的框架是第一个学习时间序列数据UDA的域不变上下文表示的框架。无监督域适应(UDA)旨在使用标记的源域学习机器学习模型,该模型在类似但不同的无标记目标域上表现良好。本文开发了一种新的时间序列数据UDA框架,称为clua。用广泛的时间序列数据集对所提出框架进行了评估,以证明其有效性,并表明其在时间序列UDA方面取得了最先进的性能。原创 2023-03-01 15:23:47 · 168 阅读 · 0 评论 -
Joint Neural Architecture and Hyperparameter Search for Correlated Time Series Forecasting
信息物理融合系统中的传感器通常捕获相互关联的过程,从而发出相关的时间序列(CTS),对其进行预测使重要的应用成为可能。CTS预测成功的关键在于揭示时间序列的时间动态和空间相关性。特别是,自动CTS预测,其中最佳深度学习架构的设计是自动化的,使预测精度超过了人工方法所达到的水平。为克服这些限制,本文提出SEARCH,一个联合的、可扩展的框架,来自动设计有效的CTS预测模型。在6个标准数据集上的实验结果表明,该方法不仅可以减少人工操作,而且具有比人工设计和现有自动设计的CTS模型更好的性能。原创 2023-01-09 17:17:58 · 583 阅读 · 0 评论 -
Querying and Mining of Time Series Data: Experimental Comparison of Representations and Distance Mea
每一部介绍特定方法的作品都提出了具体的主张,除了偶尔的理论证明之外,还提供了定量的实验观察。然而,在大多数情况下,这些实验的比较方面过于狭隘地集中于证明所提出的方法比以前介绍的一些方法的好处。我们的实验为现有的一些成果提供了统一的验证,在某些情况下,表明文献中的某些主张可能过于乐观。为了提供全面的验证,我们进行了大量的时间序列实验,重新实现了8种不同的表示方法和9种相似度量及其变体,并在来自各种应用领域的38个时间序列数据集上测试了它们的有效性。在我们的实验中,只有EDR可能比DTW略好。原创 2022-11-12 10:40:29 · 123 阅读 · 0 评论 -
Efficient Representation Learning via Adaptive Context Pooling
自我注意机制通过在所有输入标记之间使用成对注意来建模长期上下文。在这样做的过程中,他们假设单个标记(例如,文本字符或图像像素)定义了固定的注意力粒度,这可能不是在更高级别上对复杂依赖关系建模的最佳选择。在本文中,我们提出了ContextPool,通过调整每个标记的注意粒度来解决这个问题。受ConvNets成功结合池化来捕获远程依赖的启发,我们学会了在给定的注意层中计算注意之前,为每个令牌池化邻近的特性。池权和支持大小是自适应确定的,允许池特性以不同的规模编码有意义的上下文。我们表明,ContextPool使原创 2022-07-08 20:14:19 · 175 阅读 · 0 评论 -
Unsupervised Time-Series Representation Learning with Iterative Bilinear Temporal-Spectral Fusion
无监督/自监督时间序列表示学习是一个具有挑战性的问题,因为它具有复杂的动态和稀疏的注释。现有的研究主要采用对比学习的框架,利用基于时间的增强技术对正负号进行抽样,进行对比训练。然而,它们大多使用由时间切片衍生的分段级增强,由于失去全局上下文,可能会导致抽样偏差和错误的优化和假阴性。此外,它们都不注重将光谱信息纳入特征表示。在本文中,我们提出了一个统一的框架,即双线性时间谱融合(BTSF)。具体来说,我们首先利用实例级扩展,在整个时间序列上进行简单的退出,以最大限度地捕获长期依赖项。我们设计了一种新颖的迭代双原创 2022-07-08 17:27:54 · 1267 阅读 · 0 评论 -
Deep r-th Root of Rank Supervised Joint Binary Embedding for Multivariate Time Series Retrieval
多元时间序列数据在许多现实世界的应用中越来越普遍,如发电厂监测、医疗保健、可穿戴设备、汽车等。因此,多元时间序列检索,即给定当前的多元时间序列片段,如何在历史数据(或数据库中)中获取其相关的时间序列片段,引起了许多领域的极大兴趣。然而,构建这样一个系统是具有挑战性的,因为它需要原始时间序列的紧凑表示,可以显式编码时间动态以及不同时间序列(传感器)之间的相关性(交互)。此外,它需要查询效率,并期望返回的排名列表在顶部具有较高的精度。尽管已经制定了各种方法,但很少有方法能够共同解决这两项挑战。针对这一问题,本文原创 2022-06-07 00:02:20 · 164 阅读 · 0 评论 -
An Indexable Time Series Dimensionality Reduction Method for Maximum Deviation Reduction and Simi...
An Indexable Time Series Dimensionality Reduction Method for Maximum Deviation Reduction and Simi...在许多应用中,基于时间序列的相似性搜索是必不可少的。但由于时间序列的高维性,可能会造成维数诅咒。各种降维方法已经被开发出来。他们中的一些人牺牲了最大偏差来获得更快的降维速度。自适应分段线性近似(𝐴𝑃𝐿𝐴)方法使用保证误差范围的最大偏差,但它需要很长时间进行降维。我们提出一个adaptive-length降维原创 2022-06-01 09:00:23 · 111 阅读 · 0 评论 -
unsupervised representation learning for time series with temporal neighborhood coding(NIPS2020)
时间序列往往是复杂和信息丰富,但标签稀疏,因此具有挑战性的建模。在本文中,我们提出了一个学习非平稳时间序列广义表示的自监督框架。我们的方法称为时间邻域编码(TNC),利用信号生成过程的局部平滑性来定义具有平稳特性的时间邻域。使用一个去偏对比目标,我们的框架通过确保在编码空间中,来自邻域内的信号分布与非邻域信号的分布是不同的来学习时间序列表示。我们的动机源于医学领域,在医学领域,对时间序列数据的动态特性建模的能力对于识别、跟踪和预测潜在的患者潜在状态尤其有价值,而在这种情况下,标记数据实际上是不可能的。我们将原创 2022-05-29 17:15:56 · 359 阅读 · 0 评论