1.pytorch lightning之验证与测试

训练

训练部分已在《入门篇》介绍。

验证集和测试集中评估模型

通常将数据集分为三部分,train/val/test,val集在训练时评估模型的泛化性,选择其中表现最好的checkpoint。test集只在模型训练完成后使用,用于评估模型的真实性能。

添加test流程

划分数据集

以下代码使用torchvision包内实现的MNIST。如果使用自定义的数据集,先用pytorch实现Dataset子类,再继承pl.LightningDataModule类,实现相应接口。

import torch.utils.data as data
from torchvision import datasets
import torchvision.transforms as transforms

# Load data sets
transform = transforms.ToTensor()
train_set = datasets.MNIST(root="MNIST", download=True, train=True, transform=transform)
test_set = datasets.MNIST(root="MNIST", download=True, train=False, transform=transform)

实现test_step()接口

在trainer.test()阶段会自动调用test_step方法,根据需要内部可以增加保存图片、评估模型等功能。

class LitAutoEncoder(pl.LightningModule):
    def training_step(self, batch, batch_idx):
        ...

    def test_step(self, batch, batch_idx):
        # this is the test loop
        x, y = batch
        x = x.view(x.size(0), -1)
        z = self.encoder(x)
        x_hat = self.decoder(z)
        test_loss = F.mse_loss(x_hat, x)
        self.log("test_loss", test_loss)

测试

模型训练完成后,即可调用test()方法进入测试流程

from torch.utils.data import DataLoader

# initialize the Trainer
trainer = Trainer()

# 训练模型
trainer.fit(model, data)

# 训练完成后测试
trainer.test(model, dataloaders=DataLoader(test_set))

验证阶段validation的流程

与test 流程类似,实现validation_step()接口,可以配合on_validation_epoch_end()方法在计算所有样例后评估模型。

class LitAutoEncoder(pl.LightningModule):
    def training_step(self, batch, batch_idx):
        ...

    def validation_step(self, batch, batch_idx):
        # this is the validation loop
        x, y = batch
        x = x.view(x.size(0), -1)
        z = self.encoder(x)
        x_hat = self.decoder(z)
        val_loss = F.mse_loss(x_hat, x)
        self.log("val_loss", val_loss)
        self.metric.update(x_hat, y)# metric是任务相关的评价方法,比如更新混淆矩阵
    
    def on_validation_epoch_step(self, batch, batch_idx):
        
        # 从混淆矩阵中计算tp,fp, tn, fn, acc, F1等指标 
        score = self.metric.get_scores()
        # 记录,横坐标为epoch
        self.log('val/F1', score['F1'], logger=True, on_epoch=True)

预测predict流程

实现predict_step方法,然后调用trainer.predict()

其它HOOK见LightningModule,了解LightningModule的接口基本就会用pl了。

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
PyTorch Lightning是一个用于训练和部署深度学习模型的轻量级框架。它基于PyTorch,提供了一种简单易用的方式来组织、管理和扩展PyTorch代码。 以下是PyTorch Lightning的使用方法: 1. 安装PyTorch Lightning 可以通过以下命令安装PyTorch Lightning: ``` pip install pytorch-lightning ``` 2. 创建模型 创建一个PyTorch模型,继承`pl.LightningModule`类,并实现`training_step`、`validation_step`和`test_step`方法。例如: ```python import torch.nn as nn import torch.optim as optim import pytorch_lightning as pl class MyModel(pl.LightningModule): def __init__(self): super().__init__() self.fc1 = nn.Linear(28*28, 64) self.fc2 = nn.Linear(64, 10) self.loss_fn = nn.CrossEntropyLoss() def forward(self, x): x = x.view(x.size(0), -1) x = nn.functional.relu(self.fc1(x)) x = self.fc2(x) return x def training_step(self, batch, batch_idx): x, y = batch y_hat = self.forward(x) loss = self.loss_fn(y_hat, y) self.log('train_loss', loss) return loss def validation_step(self, batch, batch_idx): x, y = batch y_hat = self.forward(x) loss = self.loss_fn(y_hat, y) self.log('val_loss', loss) return loss def test_step(self, batch, batch_idx): x, y = batch y_hat = self.forward(x) loss = self.loss_fn(y_hat, y) self.log('test_loss', loss) return loss def configure_optimizers(self): return optim.Adam(self.parameters(), lr=1e-3) ``` 3. 创建数据模块 创建一个`pl.LightningDataModule`类,实现`train_dataloader`、`val_dataloader`和`test_dataloader`方法,以加载训练、验证测试数据。例如: ```python import torchvision.datasets as datasets import torchvision.transforms as transforms class MNISTDataModule(pl.LightningDataModule): def __init__(self, data_dir='./data'): super().__init__() self.data_dir = data_dir self.transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ]) def prepare_data(self): datasets.MNIST(self.data_dir, train=True, download=True) datasets.MNIST(self.data_dir, train=False, download=True) def train_dataloader(self): return torch.utils.data.DataLoader( datasets.MNIST(self.data_dir, train=True, transform=self.transform), batch_size=32, shuffle=True, num_workers=4 ) def val_dataloader(self): return torch.utils.data.DataLoader( datasets.MNIST(self.data_dir, train=False, transform=self.transform), batch_size=32, shuffle=False, num_workers=4 ) def test_dataloader(self): return torch.utils.data.DataLoader( datasets.MNIST(self.data_dir, train=False, transform=self.transform), batch_size=32, shuffle=False, num_workers=4 ) ``` 4. 训练模型 使用`pl.Trainer`类训练模型。例如: ```python model = MyModel() data_module = MNISTDataModule() trainer = pl.Trainer(max_epochs=10, gpus=1) trainer.fit(model, data_module) ``` 5. 测试模型 使用`pl.Trainer`类测试模型。例如: ```python trainer.test(model, data_module) ``` 以上就是PyTorch Lightning的使用方法。通过使用PyTorch Lightning,可以更加方便地组织和管理PyTorch代码,并实现更加高效的训练和部署。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值