AI论文速读 | 日晷(Sundial):一系列高性能时间序列基础模型

论文介绍了Sundial,一种新型的时间序列基础模型系列。Sundial通过提出基于流匹配的TimeFlow Loss,解决了时间序列预测中的非确定性和深度模型的局限性问题。模型在包含1万亿时间点的TimeBench数据集上进行预训练,展现了卓越的零样本预测性能。Sundial在多个基准测试中取得了最佳性能,为时间序列预测提供了更可靠和灵活的工具。

关键词:基础模型、零样本预测、流匹配,概率预测,连续/离散 token

摘要

本文提出了 Sundial,这是一系列原生、灵活且可扩展的时间序列基础模型。为了预测下一个补丁的分布,提出了基于流匹配的 TimeFlow Loss,这有助于在时间序列上对 Transformers 进行原生预训练,而无需离散词元化(tokenization )。以任意长度的时间序列为条件,模型无需指定任何先验分布即可进行预训练,并且可以生成多个可能的预测,从而实现除使用参数密度之外的表示学习灵活性。对于时间序列基础模型,利用 Transformers 的最小但关键的改编,并使用 1 万亿个时间点来整理 TimeBench,其中主要包括现实世界的数据集和合成数据。通过 TimeFlow Loss 缓解模式崩溃,在 TimeBench 上预训练了一系列 Sundial 模型,这些模型在零样本预测中表现出前所未有的模型容量和泛化性能。除了表现出良好的扩展行为外,Sundial 还在点预测和概率预测基准上实现了新的最先进水平。我们相信,Sundial 的先锋生成范式将促进各种各样的预测场景。

Q: 这篇论文试图解决什么问题?

原生时序模型在连续词元上学习表示。灵活的基础模型在没有指定先验分布的情况下进行预训练。Sundial为第一个原生且灵活的时间序列基础模型系列

原生时序模型在连续词元上学习表示。灵活的基础模型在没有指定先验分布的情况下进行预训练。Sundial为第一个原生且灵活的时间序列基础模型系列

A: 这篇论文介绍了Sundial,一个针对时间序列数据的新型基础模型系列。论文试图解决的问题主要集中在以下几个方面:

  1. 非确定性预测需求:时间序列预测本质上是非确定性的,因此需要生成一系列可能的预测结果以辅助决策。论文强调了生成一系列可能预测的重要性。

  2. 深度模型的局限性:尽管深度模型在时间序列预测方面取得了令人印象深刻的性能,但它们通常需要针对特定任务在足够多的分布内数据上进行训练。

  3. 时间序列基础模型的构建:现有的时间序列基础模型研究集中在构建统一、可扩展且开箱即用预测器上,这些预测器展现出接近或有时超过监督方法的零样本(zero-shot)性能。

  4. 生成能力与概率预测:大多数时间序列基础模型缺乏“生成性”或更具体地说,概率预测能力,这限制了它们在决策中的可靠性。论文提出通过引入生成模型来自然处理预测中的不确定性。

  5. 连续值时间序列的表示学习:论文指出,连续值时间序列与语言词元(token)之间存在明显区别,可能导致词汇表外问题和粗粒度预测区间。因此,需要一种新的方法来学习连续值时间序列的表示。

  6. 预训练分布的灵活性:为了学习任意复杂的分布而不发生模式崩溃,论文提出了不采用任何特定概率先验(如单峰高斯或多峰混合模型)的方法,以提高基础模型在大规模语料库上的表示能力。

  7. 提高模型容量和泛化性能:通过在1万亿时间点的数据集上进行预训练,Sundial模型系列在零样本预测方面展现出前所未有的模型容量和泛化性能。

总的来说,论文旨在通过提出Sundial模型系列,引入基于流匹配的TimeFlow Loss,以及构建包含1万亿时间点的TimeBench数据集,来推动时间序列基础模型的发展,并在各种预测场景中提供更可靠、更灵活的预测能力。

Q: 有哪些相关研究?

A: 根据论文内容,相关研究可以分为以下几个领域:

  1. 时间序列预测
  • 统计和深度学习方法的发展,包括理论启发的组件、面向架构的适应和时间序列处理方法。

  • 基础模型(foundation models)的发展,旨在通过预训练解决数据稀缺问题,并在分布外数据上实现良好的泛化性能。

  1. 时间序列基础模型
  • 构建大型、通用的时间序列模型,其中Transformer已成为主导架构。

  • 针对时间序列的二维特性和异质性进行的特定适应,包括词元化和优化方法。

  1. 生成模型在时间序列中的应用
  • 生成模型在时间序列生成和特定任务预测中的应用。

  • 流匹配(flow-matching)和去噪扩散模型(denoising diffusion models)在连续值模态中的使用。

  1. 概率预测
  • 从点预测(point forecasting)向概率预测的转变,以处理预测中的不确定性。
  1. Transformer架构在时间序列中的应用
  • 将Transformer模型适应到时间序列数据,包括处理时间序列数据的特定二维特性和异质性。

具体到论文中提到的一些工作,包括但不限于:

  • Time-MoE (Shi et al., 2024b):一个基于Mixture of Experts的大规模时间序列模型。

  • Timer (Liu et al., 2024a;b):一个针对时间序列预测优化的Transformer模型。

  • Moirai (Woo et al., 2024):一个学习混合分布的概率模型。

  • Chronos (Ansari et al., 2024):一个通过离散化时间序列进行预训练的模型,学习灵活的分类分布。

  • LLMTime:一个针对时间序列预测优化的大型语言模型。

  • TimesFM (Das et al., 2023b):一个基于Transformer的时间序列预测模型。

这些研究构成了Sundial模型的理论和实践基础,并在时间序列预测领域中提供了有价值的见解和技术。

Q: 论文如何解决这个问题?

Sundial

Sundial

A: 论文通过以下几个关键方法解决了时间序列预测中的问题:

1. 提出TimeFlow Loss

  • 为了在不进行离散化词元化(tokenization)的情况下预训练Transformer模型,并能够进行概率预测,论文提出了TimeFlow Loss。这是一个基于流匹配(flow-matching)的参数化训练目标,允许自回归模型学习每个词元(token)的预测分布,并在推理过程中生成原始预测序列。

2. 增强Transformer架构

  • 论文对Transformer进行了最小但关键的调整,以适应时间序列数据: - Patch Embedding:设计了与非整除上下文长度兼容的patch embedding。 - RoPE(Rotary Position Embedding):引入位置信息以增强时间因果关系。 - Pre-LN(Pre-layer Normalization):提高预训练稳定性。 - FlashAttention和KV Cache:这些是大型基础模型中越来越被强调的部署增强功能。

TimeFlow Loss

TimeFlow Loss

4. 构建TimeBench数据集

  • 为了探索时间序列基础模型的扩展规律,作者收集和策划了TimeBench,这是一个包含超过1万亿时间点的大规模数据集,涵盖了多个领域的数据。

Sundial的预训练语料库TimeBench中的数据源

Sundial的预训练语料库TimeBench中的数据源

5. 实现Sundial模型系列

  • 论文介绍了Sundial,这是一个在TimeBench上预训练的高度可扩展的基础模型系列。Sundial模型在点预测和概率预测基准测试中都取得了新的最佳性能。

6. 生成模型的应用

  • 论文通过引入生成模型来实现概率预测,这种方法允许模型自动学习分布,并通过对学习到的表示进行条件化来生成原始预测序列,然后计算其统计数据以进行概率预测。

6. 零样本学习

  • Sundial模型在多个大规模和公认的基准测试中实现了零样本性能的新最佳水平,这表明生成时间序列基础模型是决策的有力工具。

总结来说,论文通过提出新的损失函数、增强Transformer架构、构建大规模数据集,并利用生成模型进行概率预测,解决了时间序列预测中的关键问题,并推动了时间序列基础模型的发展。

Q: 论文做了哪些实验?

Sundial整体评测结果(性能,效率)

Sundial整体评测结果(性能,效率)

数据集

数据集

A: 根据论文内容,作者进行了以下实验来评估Sundial模型的性能和有效性:

时间序列预测

  • 点预测(Point Forecasting): - 使用长期预测基准(Time-Series-Library)评估不同模型在不同预测范围下的性能,使用均方误差(MSE)和平均绝对误差(MAE)作为评估指标。 - 比较Sundial与其他先进的时间序列基础模型的性能。

零样本

零样本

  • 概率预测(Probabilistic Forecasting): - 在GIFT-Eval基准测试上进行实验,这是一个综合评估不同时间序列的数据集,覆盖了多个领域和数据特性。 - 在FEV排行榜上进行评估,这是一个包含27个数据集的概率预测排行榜,用于零样本评估。

GIFT-Eval概率预测

GIFT-Eval概率预测

FEV概率预测

FEV概率预测

推理时间

推理时间

模型扩展性(Scalability)

  • 研究模型大小对Sundial性能的影响,通过比较不同大小的Sundial模型在TimeBench上的训练曲线和预测性能。

模型扩展性

模型扩展性

TimeFlow Loss的有效性

  • 通过与其他训练目标(如MSE Loss和基于去噪扩散的过程的参数化训练目标)进行比较,验证TimeFlow Loss在零样本性能上的有效性。

不同损失的零样本预测结果

不同损失的零样本预测结果

模型推理(Model Inference)

  • 探讨在推理过程中调整预测质量的不同配置,包括生成预测的数量和流匹配中的采样步骤,以及它们对预测性能和推理速度的影响。

生成预测数量和采样步骤

生成预测数量和采样步骤

模型适应性(Model Adaptation)

  • 通过对预训练的Sundial模型在FEV排行榜上进行微调,评估模型的知识迁移能力,并与从零开始训练的模型进行比较。

从头训练VS零样本VS微调

从头训练VS零样本VS微调

这些实验全面评估了Sundial模型在不同方面的表现,包括其在点预测和概率预测任务上的性能、模型的扩展性、训练目标的有效性、推理效率和模型的适应性。通过这些实验,作者展示了Sundial模型在时间序列预测任务中的有效性和优越性。

时序基础模型参数对比

时序基础模型参数对比

具体示例展示

  • 图10-11 展示了 Sundial (Base) 在 FEV 排行榜上的零样本预测结果。通过生成多个不同初始噪声的预测,计算中位数并绘制 80% 预测区间。这表明 Sundial 模型能够根据历史数据生成多种可能的预测结果,反映出未来时间序列的不确定性,体现了模型在概率预测方面的能力,为决策者提供了更丰富的信息。

  • 图12,Sundial (Base) 在长时预测数据集上的零样本预测。展示了不同数据集和不同预测长度下的预测情况,说明 Sundial 在长时预测任务中也能取得较好的效果,生成的预测与输入序列高度相关,且能捕捉到时间序列的趋势和变化,进一步证明了模型的泛化能力和有效性。

  • 对比了 Sundial 和采用相同骨干网络但由 MSE 损失预训练的 Transformer 的零样本预测。Sundial 作为生成式预测器,能基于回顾序列预测各种未来可能性;而由 MSE 损失预训练的模型作为确定性预测器,只能输出一个预测。且 MSE 损失预训练的模型在处理大规模预训练时存在局限性,会出现过度平滑的预测,凸显了 Sundial 在预测多样性和处理复杂分布方面的优势。

Q: 总结一下论文的主要内容

A: 论文介绍了Sundial,这是一个针对时间序列数据的新型基础模型家族。以下是论文的主要内容总结:

  1. 问题定义
  • 时间序列预测具有非确定性,需要生成一系列可能的预测结果以辅助决策。

  • 现有的深度模型需要大量特定任务的训练数据,限制了其在数据稀缺情况下的应用。

  • 时间序列基础模型旨在通过预训练解决数据稀缺问题,并在分布外数据上实现良好的泛化性能。

  1. Sundial模型系列
  • 提出了Sundial,一个原生的、灵活的、可扩展的时间序列基础模型系列。

  • Sundial模型无需离散化词元,即可在时间序列数据上进行预训练,并生成多个可能的预测结果。

  1. TimeFlow Loss
  • 为了训练Sundial模型,提出了基于流匹配的TimeFlow Loss,这是一种参数化的训练目标,允许模型学习每个词元的预测分布,并在推理过程中生成原始预测序列。
  1. Transformer架构的增强
  • 对Transformer进行了最小但关键的调整,包括Patch Embedding、RoPE、Pre-LN、FlashAttention和KV Cache,以适应时间序列数据的特性。
  1. TimeBench数据集
  • 构建了TimeBench,一个包含超过1万亿时间点的大规模数据集,用于预训练Sundial模型。
  1. 实验评估
  • 在多个大规模和公认的基准测试中评估了Sundial模型,包括点预测和概率预测任务。

  • Sundial在这些基准测试中取得了新的最佳性能,展现了良好的扩展性和零样本预测能力。

  1. 进一步探索的方向
  • 论文讨论了Sundial模型的局限性,并提出了未来可能的研究方向,包括改进采样策略、多变量时间序列的预训练、输出长度的自适应调整等。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值