pytorch JIT 和 TorchScript 详解

笔者自己对这个也只是一知半解,如果内容有出入,欢迎指出。后续给出的4个参考链接有很详细的说明,建议详看参考文献。

一、PyTorch 特性

我们都喜欢PyTorch的动态性和易用性。但在部署方面,这些品质不如性能和可移植性理想。为了提高pytorch的可移植性,引入了 TorchScript机制。

首先,探究一下 PyTorch 的生态系统,PyTorch 主要支持两种模式:

  1. Eager mode: 它用于构建原型、训练和实验
  2. Script mode:它主要关注在生产用例方面,包含 PyTorch JITTorchScript两个部分。

那么,想想我们为什么需要Script mode呢?

GIL是什么 详情参考博客园 python中的GIL详解
首先需要明确的一点是GIL并不是Python的特性,它是在实现Python解析器(CPython)时所引入的一个概念。就好比C++是一套语言(语法)标准,但是可以用不同的编译器来编译成可执行代码。有名的编译器例如GCC,INTEL C++,Visual C++等。Python也一样,同样一段代码可以通过CPython,PyPy,Psyco等不同的Python执行环境来执行。像其中的JPython就没有GIL。然而因为CPython是大部分环境下默认的Python执行环境。所以在很多人的概念里CPython就是Python,也就想当然的把GIL归结为Python语言的缺陷。所以

这里要先明确一点:GIL并不是Python的特性,Python完全可以不依赖于GIL。
那么CPython实现中的GIL又是什么呢?GIL全称Global Interpreter Lock为了避免误导,来看一下官方给出的解释:
In CPython, the global interpreter lock, or GIL, is a mutex that prevents multiple native threads from executing Python bytecodes at once. This lock is necessary mainly because CPython’s memory management is not thread-safe. (However, since the GIL exists, other features have grown to depend on the guarantees that it enforces.)

简单的说,就是为了摆脱 python 的 GIL 特性和 运行的python环境依赖。一个巧妙的解释如下:

  1. 可移植性(Portability): 可移植到任何没有特定条件的运行环境中运行。
  2. 性能(Performance):PyTorch JIT 是一个为优化PyTorch的JIT编译器,它使用运行信息来优化TorchScript 模块。他可以自动优化 layer fusion,quantization, sparsification.

二、脚本模式(Script Mode)

script mode 通过 torch.jit.tracetorch.jit.script为PyTorch 的 eager modules 创建了一个 intermediate representation(IR,中间解释器),IR在内部进行了优化,并在运行时使用了PyTorch JIT编译。PyTorch JIT编译器使用运行时信息来优化IR。这个IR与Python运行时解耦。
脚本模式通过使用 PyTorch JITTorchScript 工作。

1. 什么是PyTorch JIT?

PyTorch JIT是为PyTorch程序优化的编译器。

  • 它是一个轻量级的thread safe解释器
  • 支持易于编写自定义转换
  • 它不只是用于推理,因为它有自动差值支持

2. 什么是TorchScript?

TorchScript是Python语言的一个静态高性能子集,专门用于ML应用程序。它支持

  • 复杂控制流
  • 常见的数据结构
  • 用户定义的类

3. 使用 Script mode

script mode 引入了 torch.jit.tracetorch.jit.script 实现。

(1) torch.jit.trace

torch.jit.trace 跟踪以数据实例和训练有素的模块作为输入。跟踪程序运行提供的模块并记录执行的张量操作。这个记录被转换成一个TorchScript模块。
示例详见 PyTorch JIT and TorchScript 的 Example 1: BERT 。

(2) torch.jit.script

torch.jit.script 允许你直接在TorchScript中编写代码。它更啰嗦,但更通用,稍加调整就可以支持大多数PyTorch模型。
示例详见 PyTorch JIT and TorchScript 的 Example 2: ResNet。

参考文献:
PyTorch JIT and TorchScript
官方文档 INTRODUCTION TO TORCHSCRIPT
google AI blog Eager Execution: An imperative, define-by-run interface to TensorFlow
博客园 python中的GIL详解

  • 10
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch模型转换为TorchScript的步骤如下: 1. 定义和训练PyTorch模型:首先,您需要定义和训练一个PyTorch模型,这可以通过使用标准的PyTorch代码来完成。 2. 导出PyTorch模型:然后,您需要将PyTorch模型导出为TorchScript格式。这可以通过使用PyTorchtorch.jit模块中的trace函数来完成。trace函数接受一个输入样本并生成一个TorchScript模块。 3. 运行TorchScript模型:一旦您导出了TorchScript模型,您可以像普通的Python模块一样使用它。您可以加载模块并使用其forward方法来运行模型。此外,TorchScript模块还可以与C++和Java等其他语言一起使用。 下面是一个简单的示例代码,演示了如何将PyTorch模型转换为TorchScript: ``` import torch import torchvision # 定义和训练PyTorch模型 model = torchvision.models.resnet18() example_input = torch.rand(1, 3, 224, 224) traced_script_module = torch.jit.trace(model, example_input) # 导出PyTorch模型为TorchScript模块 traced_script_module.save("resnet18.pt") # 加载TorchScript模块并运行模型 loaded_script_module = torch.jit.load("resnet18.pt") output = loaded_script_module(example_input) print(output) ``` 在这个示例代码中,我们首先定义了一个ResNet-18模型,并使用一个随机的输入样本来跟踪模型。然后,我们将跟踪后的模型保存为TorchScript格式。最后,我们加载了TorchScript模块并使用它来运行模型。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值