iTransformer 开源项目教程
iTransformer项目地址:https://gitcode.com/gh_mirrors/itr/iTransformer
1. 项目目录结构及介绍
iTransformer/
│
├── README.md # 项目说明文档
├── requirements.txt # 依赖库列表
├── src/ # 主要代码目录
│ ├── iTransformer.py # iTransformer 模型定义
│ ├── data/ # 数据处理相关代码
│ │ └── dataset.py # 数据集加载和预处理
│ ├── models/ # 不同变体模型
│ ├── utils/ # 工具函数
│ │ └── config.py # 配置管理
│ ├── train.py # 训练脚本
│ └── evaluate.py # 评估脚本
│
└── examples/ # 示例代码
└── simple_example.py # 基本用法示例
src/
目录是核心代码存放地,其中:
iTransformer.py
定义了 iTransformer 模型的主要架构。data/
包含数据相关的代码,用于加载和预处理数据。models/
存放不同变体或扩展版本的模型。utils/
提供通用工具函数,如配置管理。train.py
是训练模型的脚本。evaluate.py
用于模型的评估。examples/
中有简单的使用示例。
2. 项目的启动文件介绍
2.1 train.py
这个脚本用于训练 iTransformer 模型。主要步骤包括:
- 加载配置文件(通过
config.py
)。 - 准备数据集。
- 实例化模型。
- 设置优化器和学习率调度器。
- 进行训练循环并保存检查点。
在命令行中运行训练,你可以指定配置文件和其他参数,例如:
python train.py --config config.yml --device cuda
2.2 evaluate.py
该脚本负责模型的评估。它会读取预训练模型,然后在验证集或测试集上进行预测并计算性能指标。同样可以指定配置文件和设备:
python evaluate.py --model_path path/to/checkpoint.pth --device cpu
2.3 simple_example.py
这是在 examples/
文件夹中的一个简单示例,展示如何导入 iTransformer 并执行基本的预测任务。
from iTransformer import iTransformer
import torch
# 初始化模型参数
num_variates = ...
lookback_len = ...
dim = ...
depth = ...
heads = ...
dim_head = ...
pred_length = ...
num_tokens_per_variate = ...
# 创建 iTransformer 对象
model = iTransformer(num_variates, lookback_len, dim, depth, heads, dim_head, pred_length, num_tokens_per_variate)
# 使用模型进行预测
inputs = ... # 输入数据
outputs = model(inputs)
3. 项目的配置文件介绍
utils/config.py
是用来处理项目配置的模块。它通常定义了一个类来存储配置项,然后可以通过字典形式访问这些参数。例如:
class Config:
def __init__(self):
self.num_variates = ...
self.lookback_len = ...
# 其他配置项...
config = Config()
print(config.num_variates) # 输出配置中的 num_variates 参数
在实际使用时,你可以创建一个 YAML 格式的配置文件(如 config.yml
),然后在运行脚本时通过命令行参数加载,比如:
python train.py --config config.yml
这将使脚本自动解析配置文件并将设置应用到程序中。
iTransformer项目地址:https://gitcode.com/gh_mirrors/itr/iTransformer