本文是LLM系列文章,针对《LSTPrompt: Large Language Models as Zero-Shot Time Series Forecasters by Long-Short-Term Prompting》的翻译。
摘要
时间序列预测(TSF)在现实世界中有着广泛的应用。提示脱离搁置的大型语言模型(LLM)展示了强大的零样本TSF功能,同时保持了计算效率。然而,现有的提示方法将TSF过于简化为语言下一个表征预测,忽略了其动态性质,并且缺乏与最先进的提示策略(如思想链)的集成。因此,我们提出了LSTPrompt,这是一种在零样本TSF任务中提示LLM的新方法。LSTPrompt将TSF分解为短期和长期预测子任务,并为每个任务定制提示。LSTPrompt指导LLM定期重新评估预测机制,以增强适应性。广泛的评估表明,LSTPrompt的性能始终优于现有的提示方法,并且与基础TSF模型相比,结果具有竞争力。
1 引言
2 方法
3 实验
4 结论
在本文中,我们介绍了LSTPrompt,这是一种通过提示LLM实现零样本TSF任务的新提示范式。LSTPr