TensorRT详解

一个深度学习项目从研发到落地,需要经历两个阶段:

1、模型的生成(包括模型训练、验证、测试等步骤,主要在线下进行)

2、模型的部署(主要在线上进行,可以部署到各种芯片上,许多场景对速度要求很高,比如自动驾驶场景)

TensorRT就是为此而生(线上部署)。

TensorRT是英伟达针对GPU所做的加速包,TensorRT主要做了这么两件事情,来提升模型的运行速度。

(1) TensorRT支持INT8和FP16的计算,模型在训练时通常使用FP32数据类型,而TensorRT在推理阶段不需要如此高的精度,就可以达到加速推断的目的。

(2)TensorRT会对网络模型结构进行重构,简单来讲:英伟达公司对自家生产的GPU产品的特性做了优化,将网络结构中重复的结构合并起来,达到加速的效果。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值