【TensorRT】官方文档onnx序列化教程与推理教程

一、构建TensorRT序列化模型

本博客主要说明的是TensorRT C++ API,从我们获取到onnx模型开始的流程。C++ API可以通过引用头文NvInfer.h来进行访问(使用其命名空间nvinfer1),代码示例:

#include "NvInfer.h"

using namespace nvinfer1;

需要说明的是,TensorRT C++的接口类都以I为前缀开头,例如ILoggerIBuilder,等等。如果在此之前不存在,则TensorRT第一次调用CUDA时会自动创建CUDA上下文。在第一次调用TensorRT之前,最好自己创建和配置CUDA上下文。

并且由于需要展示各对象的存在周期,实例代码中没有使用智能指针,但是建议在实际使用中加上智能指针来配合TensorRT接口。


二、搭建阶段(三步走)

要创建构建器,首先必须实例化ILogger接口。这个例子捕获所有警告消息,但忽略信息性消息:

inline const char* severity_string(nvinfer1::ILogger::Severity t) {
   
	switch (t) {
   
	case nvinfer1::ILogger::Severity::kINTERNAL_ERROR: return "internal_error";
	case nvinfer1::ILogger::Severity::kERROR:   return "error";
	case nvinfer1::ILogger::Severity::kWARNING: return "warning";
	case nvinfer1::ILogger::Severity::kINFO:    return "info";
	case nvinfer1::ILogger::Severity::kVERBOSE: return "verbose";
	default: return "unknow";
	}
}

class My_Logger : public nvinfer1::ILogger           
{
   
public:
    virtual void log(Severity severity, const char* msg) noexcept override
    {
   
        // suppress info-level messages
        // 捕获所有警告类消息并输出
        if (severity <= Severity::kWARNING)
    		// 
  • 7
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

澄鑫

谢谢,将继续努力提供技术方案

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值