使用python进行onnx转trt(TensorRT)模型,简单有效

5 篇文章 0 订阅
4 篇文章 0 订阅
  1. 运行环境
    python 3.6.9
    tensorrt 7.1.3.4
  2. 简单代码实现
import tensorrt as trt
import sys
import os

TRT_LOGGER = trt.Logger(trt.Logger.WARNING)
EXPLICIT_BATCH = 1 << (int)(trt.NetworkDefinitionCreationFlag.EXPLICIT_BATCH)

def printShape(engine):
    for i in range(engine.num_bindings):
        if engine.binding_is_input(i):
            print("input layer: {}, shape is: {} ".format(i, engine.get_binding_shape(i)))
        else:
            print("output layer: {} shape is: {} ".format(i, engine.get_binding_shape(i)))

def onnx2trt(onnx_path, engine_path):
    with trt.Builder(TRT_LOGGER) as builder, builder.create_network(EXPLICIT_BATCH) as network, trt.OnnxParser(network, TRT_LOGGER) as parser:
        builder.max_workspace_size = 1 << 28 # 256MB

        with open(onnx_path, 'rb') as model:
            parser.parse(model.read())
        engine = builder.build_cuda_engine(network)

        printShape(engine)            

        with open(engine_path, "wb") as f:
            f.write(engine.serialize())

if __name__ == "__main__":                             
    input_path = "./styleTransfer.onnx"
    output_path = input_path.replace('.onnx', '.engine')
    onnx2trt(input_path, output_path)

如果op不支持,会导致转换不成功,并且会提示哪一层出错。

  • 3
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 14
    评论
您可以使用TensorRT提供的ONNX Parser来将ONNX模型换为TensorRT模型。以下是一些基本的步骤: 1. 安装TensorRT:您需要先安装TensorRT库。可以从NVIDIA官方网站下载适合您系统的版本,并按照它们的文档进行安装。 2. 导入TensorRT:在Python脚本中,您需要导入TensorRT库和其他必要的库: ```python import tensorrt as trt import pycuda.driver as cuda import pycuda.autoinit import numpy as np import onnx ``` 3. 加载ONNX模型使用ONNX库加载ONNX模型: ```python model = onnx.load("path/to/your/model.onnx") ``` 4. 创建TensorRT的builder和network对象: ```python trt_logger = trt.Logger(trt.Logger.WARNING) trt_builder = trt.Builder(trt_logger) trt_network = trt_builder.create_network() ``` 5. 创建ONNX Parser对象并解析ONNX模型: ```python onnx_parser = trt.OnnxParser(trt_network, trt_logger) onnx_parser.parse(model.SerializeToString()) ``` 6. 配置TensorRT的优化器和创建推理引擎: ```python trt_builder.max_batch_size = 1 trt_builder.max_workspace_size = 1 << 30 # 设置最大的工作空间大小 trt_engine = trt_builder.build_cuda_engine(trt_network) ``` 7. 保存TensorRT模型: ```python trt_engine.save_serialized_state("path/to/save/engine.trt") ``` 现在,您已经将ONNX模型成功换为TensorRT模型。您可以使用保存的TensorRT模型进行推理。 请注意,这只是一个简单的示例,实际换过程可能需要根据您的模型和需求进行调整。更详细的文档和示例可以在TensorRT的官方文档中找到。
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值