TensorRT概述

本文介绍了NVIDIA的TensorRT平台,强调其在深度学习推论中实现低延迟和高吞吐量的优势。TensorRT支持INT8和FP16精度优化,提供C++和Python API接口。作为一款inference优化器,TensorRT能将训练好的模型(如来自Caffe、TensorFlow的模型)转换并优化,特别针对NVIDIA GPU进行加速。
摘要由CSDN通过智能技术生成

简介

在这里插入图片描述

1.Docker - 在Nvidia Jetson nano 上執行jetson inference
2.在Nvidia Jetson nano 上執行jetson inference

先前有写两篇文章有使用使用NVIDIA TensorRT布署到Jetson platform,所以这阵子陆续搜集了一些TensorRT的资料,此篇纯粹写来记录一下这阵子整理 NVIDIA TensorRT的一些重点资讯。



教学开始

TensorRT 是 Nvidia 提出的深度学习推论平台,TensorRT 具备着低延迟 (Latency) 、高吞吐量(Throughput)的优点。

  • Latency: 指执行一个操作,所需要花费的时间。
  • Throughput: 在单位时间内,可执行运算的次数。

TensorRT 提供精度 INT8 和 FP16 优化 。此外,TensorRT 函式库是以 C++撰写,也提供 C++ 和 Python API 接口可以使用。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值