TensorRT:在NVIDIA各种GPU硬件平台下运行的高性能推理C++库【Pytorch->ONNX->TensorRT】【实现神经网络提速(读取ONNX模型并运行)】【目前对ONNX的支持最好】

本文介绍了TensorRT——一个用于NVIDIA GPU的高性能推理C++库,强调其在神经网络加速上的作用。通过Pytorch到ONNX再到TensorRT的流程,展示了如何实现模型提速。讨论了TensorRT的适用场景、加速效果,以及如何将不同模型转换为TensorRT格式,特别指出TensorRT对ONNX支持良好,适用于多种深度学习框架。
摘要由CSDN通过智能技术生成

在这里插入图片描述
在这里插入图片描述
tensorRT

  • 基本网络构建
    • 创建builder
    • 创建network
    • 创建config
    • network添加输入
    • network添加层,绑定输入
    • network mark output,指定输出节点
    • builder编译network
    • 序列化,并储存为文件
  • 推理过程
    • 创建runtime
    • 反序列化engine
    • 创建执行上下文ExecuteContext
    • 获取binding的维度,并为输入输出节点分配内存
    • 为输入塞数据
    • 入队, context->enqueue(batch, void** bindings, stream, event);
    • 复制结果回主机
    • 流同步,等待推理结束
    • 打印结果
  • onnx解析器
    • tensorRT依赖onnx
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值