pytorch lightning使用(简要介绍)

0. 简介

pytorch lightning通过提供LightningModule和LightningDataModule,使得在用pytorch编写网络模型时,加载数据、分割数据集、训练、验证、测试、计算指标的代码全部都能很好的组织起来,显得主程序调用时,代码简洁可读性大幅度提升。

1. pytorch lightning的安装

pip install pytorch-lightning
conda install pytorch-lightning -c conda-forge

2. 定义一个网络模型模型:LightningModule

通过继承LightningModule,并实现几个关键的函数,使得模型在训练、验证和测试过程中能进行模块化调用,具体细节完全被自定义的函数封装,整体十分简洁。定义一个LightningModule的基类,可以实现的函数如下:

from pytorch_lightning import LightningModule

class MyModel(LightningModule):
    """
    The only required methods in the LightningModule are:
    init
    training_step
    configure_optimizers
    """
    def __init__(self, *args, **kwargs): pass
    def forward(self, *args, **kwargs): pass
    def training_step(self, batch, batch_idx, optimizer_idx, hiddens): pass
    def training_step_end(self, *args, **kwargs): pass # 接受train_step的返回值
    def training_epoch_end(self, outputs): pass # 接受train_step一整个epoch的返回值的列表
    def validation_step(self, batch, batch_idx, dataloader_idx): pass # model.eval() and torch.no_grad() are called automatically
    def validation_step_end(self, *args, **kwargs): pass # 接受validation_step的返回值
    def validation_epoch_end(self, outputs)
    def test_step(self, batch, batch_idx, dataloader_idx): pass # model.eval() and torch.no_grad() are called automatically
    def test_step_end(self, *args, **kwargs): pass  # 接收test_step的返回值
    def test_epoch_end(self, outputs): pass
    def configure_optimizers(self, ): pass
    def any_extra_hook(...): pass  #  指代任意其他的可重载函数

其中,必须实现的函数只有__init__() 、training_step()、configure_optimizers()。

3. 定义一个数据模型:LightningDataModule

通过定义LightningDataModule的子类,数据集分割、加载的代码将整合在一起,可以实现的方法有:

class MyDataModule(LightningDataModule):
    def __init__(self):
        super().__init__()
    def prepare_data(self):
        # download, split, etc...
        # only called on 1 GPU/TPU in distributed
    def setup(self,stage:str):  # stage: "fit", "test", 【暂时不知道验证步骤叫什么名字,可以自己打印一下】
        # make assignments here (val/train/test split)
        # called on every process in DDP
    def train_dataloader(self):
        train_split = Dataset(...)
        return DataLoader(train_split)
    def val_dataloader(self):
        val_split = Dataset(...)
        return DataLoader(val_split)
    def test_dataloader(self):
        test_split = Dataset(...)
        return DataLoader(test_split)

4. 使用pytorch lightning的API开始训练

def main():
    model = MyModule()
    data_module = MyDataModule()
    trainer = pytorch_lightning.Trainer(...)  # some arugments, 根据需要传入你的参数
    trainer.fit(module, datamodule=data_module)
    trainer.test(module, datamodule=data_module, verbose=True)
 

if __name__ == "__main__":
    main()

具体实现都通过类封装之后,主函数就显得简洁多了。

  • 5
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论
PyTorch Lightning是一个用于训练和部署深度学习模型的轻量级框架。它基于PyTorch,提供了一种简单易用的方式来组织、管理和扩展PyTorch代码。 以下是PyTorch Lightning使用方法: 1. 安装PyTorch Lightning 可以通过以下命令安装PyTorch Lightning: ``` pip install pytorch-lightning ``` 2. 创建模型 创建一个PyTorch模型,继承`pl.LightningModule`类,并实现`training_step`、`validation_step`和`test_step`方法。例如: ```python import torch.nn as nn import torch.optim as optim import pytorch_lightning as pl class MyModel(pl.LightningModule): def __init__(self): super().__init__() self.fc1 = nn.Linear(28*28, 64) self.fc2 = nn.Linear(64, 10) self.loss_fn = nn.CrossEntropyLoss() def forward(self, x): x = x.view(x.size(0), -1) x = nn.functional.relu(self.fc1(x)) x = self.fc2(x) return x def training_step(self, batch, batch_idx): x, y = batch y_hat = self.forward(x) loss = self.loss_fn(y_hat, y) self.log('train_loss', loss) return loss def validation_step(self, batch, batch_idx): x, y = batch y_hat = self.forward(x) loss = self.loss_fn(y_hat, y) self.log('val_loss', loss) return loss def test_step(self, batch, batch_idx): x, y = batch y_hat = self.forward(x) loss = self.loss_fn(y_hat, y) self.log('test_loss', loss) return loss def configure_optimizers(self): return optim.Adam(self.parameters(), lr=1e-3) ``` 3. 创建数据模块 创建一个`pl.LightningDataModule`类,实现`train_dataloader`、`val_dataloader`和`test_dataloader`方法,以加载训练、验证和测试数据。例如: ```python import torchvision.datasets as datasets import torchvision.transforms as transforms class MNISTDataModule(pl.LightningDataModule): def __init__(self, data_dir='./data'): super().__init__() self.data_dir = data_dir self.transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ]) def prepare_data(self): datasets.MNIST(self.data_dir, train=True, download=True) datasets.MNIST(self.data_dir, train=False, download=True) def train_dataloader(self): return torch.utils.data.DataLoader( datasets.MNIST(self.data_dir, train=True, transform=self.transform), batch_size=32, shuffle=True, num_workers=4 ) def val_dataloader(self): return torch.utils.data.DataLoader( datasets.MNIST(self.data_dir, train=False, transform=self.transform), batch_size=32, shuffle=False, num_workers=4 ) def test_dataloader(self): return torch.utils.data.DataLoader( datasets.MNIST(self.data_dir, train=False, transform=self.transform), batch_size=32, shuffle=False, num_workers=4 ) ``` 4. 训练模型 使用`pl.Trainer`类训练模型。例如: ```python model = MyModel() data_module = MNISTDataModule() trainer = pl.Trainer(max_epochs=10, gpus=1) trainer.fit(model, data_module) ``` 5. 测试模型 使用`pl.Trainer`类测试模型。例如: ```python trainer.test(model, data_module) ``` 以上就是PyTorch Lightning使用方法。通过使用PyTorch Lightning,可以更加方便地组织和管理PyTorch代码,并实现更加高效的训练和部署。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

fanqiliang630

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值