TensorRT 5/6/7 加载onnx模型

本文介绍了如何在TensorRT 5/6及7中加载和转换ONNX模型。重点讲述了在TensorRT 7中由于对explicit_batch的要求,需要设置`explicit_batch = 1 << (int)(trt.NetworkDefinitionCreationFlag.EXPLICIT_BATCH)`,否则会出现错误。此外,还强调了在TRT7中必须指定输入尺寸,否则网络验证会失败。作者分享了遇到的问题及解决方案,包括int8量化时动态batch_size导致的错误,并给出了处理方法。
摘要由CSDN通过智能技术生成

TensorRT5/6加载并转换onnx:

def onnx_2_trt(onnx_model_name,trt_model_name):
    with trt.Builder(G_LOGGER) as builder, builder.create_network() as network, 
    trt.OnnxParser(network, G_LOGGER) as parser:
        builder.max_batch_size = 1024
        builder.max_workspace_size = 2 << 30

        print('Loading ONNX file from path {}...'.format(onnx_model_name))
        with open(onnx_model_name, 'rb') as model:
            print('Beginning ONNX file parsing')
            b = parser.parse(model.read())

        if 1:
            print('Completed parsing of ONNX file')
            print('Building an engine from file {}; this may take a while...'.format(args.onnx_model))

            ####
            #builder.int8_mode = True
            #builder.int8_calibrator = calib
            builder.fp16_mode = True
            ####
            print("layers:",network.num_layers)
            network.mark_output(network.get_layer(network.num_layers - 1).get_output(0))//有的模型需要,有的模型在转onnx的之后已经指定了,就不需要这行

            engine = builder.build_cuda_engine(network)
            print(engine)
            print("Completed creating Engine")
            with open(trt_model_name, "wb") as f:
                f.write(engine.serialize())
            return engine

        else:
            print('Number of errors: {}'.format(parser.num_errors))
            error = parser.get_error(0) # if it gets
  • 5
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
您可以使用TensorRT提供的ONNX Parser来将ONNX模型转换为TensorRT模型。以下是一些基本的步骤: 1. 安装TensorRT:您需要先安装TensorRT库。可以从NVIDIA官方网站下载适合您系统的版本,并按照它们的文档进行安装。 2. 导入TensorRT:在Python脚本中,您需要导入TensorRT库和其他必要的库: ```python import tensorrt as trt import pycuda.driver as cuda import pycuda.autoinit import numpy as np import onnx ``` 3. 加载ONNX模型:使用ONNX加载ONNX模型: ```python model = onnx.load("path/to/your/model.onnx") ``` 4. 创建TensorRT的builder和network对象: ```python trt_logger = trt.Logger(trt.Logger.WARNING) trt_builder = trt.Builder(trt_logger) trt_network = trt_builder.create_network() ``` 5. 创建ONNX Parser对象并解析ONNX模型: ```python onnx_parser = trt.OnnxParser(trt_network, trt_logger) onnx_parser.parse(model.SerializeToString()) ``` 6. 配置TensorRT的优化器和创建推理引擎: ```python trt_builder.max_batch_size = 1 trt_builder.max_workspace_size = 1 << 30 # 设置最大的工作空间大小 trt_engine = trt_builder.build_cuda_engine(trt_network) ``` 7. 保存TensorRT模型: ```python trt_engine.save_serialized_state("path/to/save/engine.trt") ``` 现在,您已经将ONNX模型成功转换为TensorRT模型。您可以使用保存的TensorRT模型进行推理。 请注意,这只是一个简单的示例,实际转换过程可能需要根据您的模型和需求进行调整。更详细的文档和示例可以在TensorRT的官方文档中找到。
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值