from torchtext.legacy import data from torch import optim
创建Adam优化器
optimizer = optim.Adam(model.parameters())
训练循环
for epoch in range(num_epochs): for batch in train_iter: # 前向传播 output = model(batch.text) # 计算损失 loss = criterion(output, batch.label) # 清空梯度 optimizer.zero_grad() # 反向传播 loss.backward() # 更新参数 optimizer.step()
模型评估部分省略
注意:这里使用的是 `torchtext.legacy` 中的 `data` 模块,如果您使用的是最新版本的 `torchtext`,可能需要使用 `torchtext.data` 模块。