A decoder-only foundation model for time-series forecasting

828 篇文章

已下架不支持订阅

本文提出了一种仅解码器的基础模型PreDcT,用于时间序列预测。该模型在大规模时间序列语料库上预训练,表现出接近最佳监督模型的开箱即用性能,并能在各种预测任务中取得出色效果。

本文是LLM系列文章,针对《A decoder-only foundation model for time-series forecasting》的翻译。

摘要

受自然语言处理(NLP)大型语言模型最新进展的启发,我们设计了一个用于预测的时间序列基础模型,该模型在各种公共数据集上的开箱即用零镜头性能接近于每个单独数据集的最先进监督预测模型的准确性。我们的模型基于在大型时间序列语料库上预训练补丁解码器风格的注意力模型,可以在不同的预测历史长度、预测长度和时间粒度上很好地工作。

1 引言

2 相关工作

3 问题定义

4 模型结构

5 实验结果

6 讨论和未来工作

我们使用大约1B个时间点的大型预训练语料库来训练用于时间序列预测的仅解码器基础模型,其中大部分是从谷歌趋势中导出的搜索兴趣时间序列。我们表明,即使是使用我们的PreDcT架构的相对较小的225M参数预训练模型,在不同领域和粒度的各种公共基准上也显示出令人印象深刻的零样本性能。PreDcT(ZS)模型可以与最近在目标数据集上专门训练的最先进的监督基线的性能相媲美。这是显著的,因为PreDcT(ZS)模型在推理之前没有看到目标数据集。
在未来的工作中,在预训练数据和模型中的参数数量中突破规模边界将是一件有趣的事情。按照[HBM+22]的思路对时间序列基础模型进行缩放研究将

已下架不支持订阅

考虑柔性负荷的综合能源系统低碳经济优化调度【考虑碳交易机制】(Matlab代码实现)内容概要:本文围绕“考虑柔性负荷的综合能源系统低碳经济优化调度”展开,重点研究在碳交易机制下如何实现综合能源系统的低碳化与经济性协同优化。通过构建包含风电、光伏、储能、柔性负荷等多种能源形式的系统模型,结合碳交易成本与能源调度成本,提出优化调度策略,以降低碳排放并提升系统运行经济性。文中采用Matlab进行仿真代码实现,验证了所提模型在平衡能源供需、平抑可再生能源波动、引导柔性负荷参与调度等方面的有效性,为低碳能源系统的设计与运行提供了技术支撑。; 适合人群:具备一定电力系统、能源系统背景,熟悉Matlab编程,从事能源优化、低碳调度、综合能源系统等相关领域研究的研究生、科研人员及工程技术人员。; 使用场景及目标:①研究碳交易机制对综合能源系统调度决策的影响;②实现柔性负荷在削峰填谷、促进可再生能源消纳中的作用;③掌握基于Matlab的能源系统建模与优化求解方法;④为实际综合能源项目提供低碳经济调度方案参考。; 阅读建议:建议读者结合Matlab代码深入理解模型构建与求解过程,重点关注目标函数设计、约束条件设置及碳交易成本的量化方式,可进一步扩展至多能互补、需求响应等场景进行二次开发与仿真验证。
【顶级EI复现】【最新EI论文】低温环境下考虑电池寿命的微电网优化调度(Matlab代码实现)内容概要:本文介绍了名为《【顶级EI复现】【最新EI论文】低温环境下考虑电池寿命的微电网优化调度(Matlab代码实现)》的技术文档,重点围绕在低温环境下,结合电池寿命衰减因素对微电网系统进行优化调度的研究。该研究通过建立数学模型,综合考虑风光储、柴油、燃气等多种能源形式以及电网交互关系,利用Matlab编程实现优化算法(如内点法、多目标粒子群算法等),完成对微电网运行成本、能源效率与电池使用寿命之间的多目标协同优化。文中强调了实际寒潮场景下的V2G调度数据应用,并提供了完整的仿真代码与数据集支持,具有较强的工程复现价值。; 适合人群:具备一定电力系统基础知识和Matlab编程能力的研究生、科研人员及从事微电网、储能系统优化等相关领域的工程技术人员;尤其适合希望复现高水平EI论文成果的用户; 使用场景及目标:①用于低温环境下微电网能量管理系统的建模与仿真;②支撑考虑电池老化机制的储能优化调度研究;③服务于学术论文复现、课题项目开发及智能电网优化算法验证; 阅读建议:建议结合提供的网盘资源(包括YALMIP工具包、完整代码与数据集)进行实践操作,重点关注目标函数构建、约束条件设置及多目标优化求解过程,建议在Matlab环境中调试代码以深入理解算法实现细节与系统响应特性。
### 解码器架构在深度学习中的应用 解码器架构作为深度神经网络的一部分,在特定应用场景下展现出独特的优势。不同于传统的编码器-解码器框架,仅解码器架构专注于序列生成任务,尤其适用于那些不需要复杂上下文理解的任务。 #### 序列建模与生成能力 仅解码器模型通过自回归方式逐个预测下一个token,这使得该类模型特别适合于自然语言处理领域内的文本生成任务[^3]。例如,《A Decoder-Only Foundation Model For Time-Series Forecasting》探讨了如何构建基于纯解码器的时间序列预测基础模型,证明了解码器不仅限于NLP场景,在其他连续型数据集上的潜力也不可忽视。 #### 参数高效性 相较于完整的编解码结构,单独使用的解码器通常拥有更少的参数量,这意味着更低的记忆消耗以及更快的速度表现。对于资源受限环境下的部署尤为有利。然而值得注意的是,这种简化可能会牺牲掉部分跨模态信息交互的能力,所以在实际项目规划阶段需权衡利弊[^1]。 ```python import torch.nn as nn class OnlyDecoder(nn.Module): def __init__(self, vocab_size, d_model, nhead, num_decoder_layers, dim_feedforward, dropout=0.1): super(OnlyDecoder, self).__init__() decoder_layer = nn.TransformerDecoderLayer(d_model=d_model, nhead=nhead, dim_feedforward=dim_feedforward, dropout=dropout) self.decoder = nn.TransformerDecoder(decoder_layer, num_decoder_layers) def forward(self, tgt, memory=None): # 对于decoder-only model来说memory可以为空或不使用 output = self.decoder(tgt=tgt, memory=memory if memory is not None else tgt) return output ``` 此代码片段展示了一个简单的PyTorch实现版本的只含解码器模块的Transformer架构实例。这里`memory`参数的存在是为了兼容标准的transformer接口;但在纯粹的解码过程中它可能不会被真正利用起来。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值