pytorch-模型转换与算子读取

目录

 

一、pth转换onnx,并验证转换模型

二、模型参数统计

三、pth模型参数读取


一、pth转换onnx,并验证转换模型

当使用用tensorRT加速的时候,需要将pytorch模型转onnx模型。下面将介绍pytorch的pth模型如何转换成onnx,并验证转换模型。


先给官网链接:https://pytorch.org/docs/stable/onnx.html

咱们直接用一段代码来看:


import os.path as osp


import numpy as np

import onnx

import onnxruntime as ort

import torch

import torchvision


# your test input array

test_arr = np.random.randn(10, 3, 224, 224).astype(np.float32)


dummy_input = torch.randn(10, 3, 224, 224, device='cuda')

model = torchvision.models.resnet50(pretrained=True).cuda().eval()

print('pytorch result:', model(torch.from_numpy(test_arr).cuda()))


input_names = ["input"]

output_names = ["output"]


if not osp.exists('resnet50.onnx'):

# translate your pytorch model to onnx

torch.onnx.export(model, dummy_input, "resnet50.onnx", verbose=True, input_names=input_names, output_names=output_names)


model = onnx.load("resnet50.onnx")

ort_session = ort.InferenceSession('resnet50.onnx')

outputs = ort_session.run(None, {'input': test_arr})


print('onnx result:', outputs[0])

上面代码做的操作是先加载pytorch模型(包括结构和参数,然后设置为eval()),然后通过torch.onnx.export转化成onnx模型文件。

ps:

1. dummy_input就是一个输入的实例,仅提供输入shape、type等信息,里面什么内容不重要。所以用randn, zeros, ones都是可以的,或者就打开测试集的一张图片(如果你的模型输入是图片的话); 

2. input_names和output_names没有特别要求,可以自己定义,但是要session里输入的一致(上面代码倒数第二行);你上面描述的input_names为"input",下面也只能"input";

3. pytorch模型的输入为tensor,而onnx的输入为array;这里是一个大坑。


二、模型参数统计

可以使用torchsummary,用来统计PyTorch每层的参数情况。一来可以用于参数剪枝优化,二来可以用于了解模型的参数分布。

安装:

pip install torchsummary

源代码链接:https://github.com/sksq96/pytorch-summary

使用:


from torchvision.models.alexnet import alexnet

from torchsummary import summary



model = alexnet(pretrained=True).eval().cuda()

summary(model, input_size=(3, 224, 224), batch_size=-1)

效果:

结束~ 


三、pth模型参数读取

目的:把训练好的pth模型参数提取出来,然后用其他方式部署到边缘设备。

Pytorch给了很方便的读取参数接口:nn.Module.parameters()

直接看demo:

from torchvision.models.alexnet import alexnet

model = alexnet(pretrained=True).eval().cuda()

parameters = model.parameters()

for p in parameters:

numpy_para = p.detach().cpu().numpy()

print(type(numpy_para))

print(numpy_para.shape)

上面得到的numpy_para就是numpy参数了~

Note:model.parameters()是以一个生成器的形式迭代返回每一层的参数。所以用for循环读取到各层的参数,循环次数就表示层数。而每一层的参数都是torch.nn.parameter.Parameter类型,是Tensor的子类,所以直接用tensor转numpy(即p.detach().cpu().numpy())的方法就可以直接转成numpy矩阵。方便又好用,爆赞~

 

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: PyTorch-GPU与CUDA版本对应如下: PyTorch-GPU 1..:CUDA 9. PyTorch-GPU 1.1.:CUDA 9.、CUDA 10. PyTorch-GPU 1.2.:CUDA 9.、CUDA 10.、CUDA 10.1 PyTorch-GPU 1.3.:CUDA 9.2、CUDA 10.、CUDA 10.1 PyTorch-GPU 1.4.:CUDA 10.、CUDA 10.1、CUDA 10.2 PyTorch-GPU 1.5.:CUDA 10.1、CUDA 10.2 PyTorch-GPU 1.6.:CUDA 10.1、CUDA 10.2、CUDA 11. PyTorch-GPU 1.7.:CUDA 10.1、CUDA 10.2、CUDA 11. PyTorch-GPU 1.8.:CUDA 11.1 PyTorch-GPU 1.9.:CUDA 11.1、CUDA 11.2 需要注意的是,不同版本的PyTorch-GPU可能需要不同版本的CUDA才能正常运行。因此,在安装PyTorch-GPU时,需要根据自己的CUDA版本选择相应的PyTorch-GPU版本。 ### 回答2: PyTorch是一个流行的深度学习库,支持使用GPU加速算法运行以提高训练速度。在PyTorch中,CUDA是一种用于在NVIDIA GPU上加速计算的并行计算平台和API集合。因此,PyTorch的GPU功能需要与CUDA版本兼容。 PyTorch的GPU支持是通过与CUDA库进行交互来实现的。由于PyTorch和CUDA的版本兼容性问题,所以要使用GPU功能,需要确保安装有与PyTorch版本兼容的CUDA库。常见的PyTorch版本与CUDA版本对应关系如下: - PyTorch 1.0.x 对应 CUDA 9.0 - PyTorch 1.1.x-1.2.x 对应 CUDA 10.0 - PyTorch 1.3.x 对应 CUDA 10.1 - PyTorch 1.4.x-1.5.x 对应 CUDA 10.2 需要注意的是,不同的PyTorch版本和不同的GPU型号可能有不同的CUDA版本要求。因此,在使用GPU加速算法时,需要根据具体情况选择合适的PyTorch版本和CUDA版本。 总之,为了确保PyTorch能够充分利用GPU的加速能力,需要安装正确版本的CUDA库,并确保与PyTorch版本兼容。通过此功能使用GPU加速可以加快训练速度,提高模型性能。 ### 回答3: PyTorch是一个基于Python的开源机器学习框架,具有广泛的应用和活跃的社区支持。PyTorch可以在CPU和GPU上运行,而使用GPU的最简单方法是使用CUDA(Compute Unified Device Architecture)工具包。CUDA是由NVIDIA开发的并行计算平台和应用程序接口,用于在GPU上进行高性能计算。因此,PyTorch需要与正确版本的CUDA协同工作,以在GPU上实现最佳性能。 不同版本的PyTorch对应着不同版本的CUDA,因此在安装PyTorch之前需要确定使用哪个版本的CUDA。在PyTorch官网上推荐使用的版本如下: PyTorch 1.7.x:CUDA 10.1,CUDA 10.2或CUDA 11.0 PyTorch 1.6.x:CUDA 10.1,CUDA 10.2或CUDA 11.0 PyTorch 1.5.x:CUDA 10.1或CUDA 10.2 PyTorch 1.4.x:CUDA 10.1 PyTorch 1.3.x:CUDA 10.1 PyTorch 1.2.x:CUDA 9.2 需要注意的是,不同版本的CUDA需要特定的GPU架构才能运行,因此在安装CUDA之前,需要先了解自己的GPU支持哪些架构。此外,为了避免因为版本不匹配而发生不必要的打扰或错误,建议在安装PyTorch之前也检查一下自己机器上CUDA的版本。如果是多个版本共存,则需要设置环境变量以指示使用哪个版本。 总之,在安装和使用PyTorch时,需要对应选择正确的CUDA版本,以保证在GPU上获得最佳性能和稳定性。同时,需要了解自己机器上GPU的性能和支持的CUDA版本,以避免不必要的打扰和错误。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

DLANDML

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值