目录
一、基于PyTorch搭建Transformer模型实现风速时间序列预测
一、基于PyTorch搭建Transformer模型实现风速时间序列预测
2017 年,Google 提出了 Transformer 模型,用 Self Attention 的结构,取代了以往 NLP 任务中的 RNN 网络结构,在 WMT 2014 Englishto-German 和 WMT 2014 English-to-French两个机器翻译任务上都取得了当时 SOTA 的效果。
又由于文本数据和时间序列数据都是属于序列型数据,所以本文尝试使用Transformer来处理时序数据看看效果如何。
对于本文使用的Transformer其实使用的是阉割版,因为Transformer分为两个部分,分别是 Encoder
和 Decoder
,本项目只使用了编码器,然后将编码后的结果导入到全连接层进行映射输出。
本项目依旧是使用过去20天的数据来预测未来1天的数据,且每天的特征我们是只用到了一个变量 WIND
风速,也就是单变量预测。
二、配置类
下面是本项目需要使用的参数以及相关变量,为了方便我们将所有参数封装到一个类中,也可以使用 argparse
参数解析方式。
为