TRT模型加速推理---随笔记

一、jetson环境部署熟悉(NVIDIA Jetson嵌入式平台)

uname -a显示有关内核和操作系统的信息,显示如下:

Linux nx-desktop 4.9.253-tegra #0 SMP PREEMPT Tue Nov 30 15:41:10 CST 2021 aarch64 aarch64 aarch64 GNU/Linux

Jetpack是NVIDIA为Jetson系列开发套件提供的软件套件,包含了操作系统、驱动程序、库和工具等。查看jetpack版本命令:cat /etc/nv_tegra_release。显示如下:

 R32 (release), REVISION: 6.1, GCID: 27863751, BOARD: t186ref, EABI: aarch64, DATE: Mon Jul 26 19:36:31 UTC 2021

二、模型加速技术调研

  1. TensorRT是英伟达针对自家平台做的加速包,可以认为tensorRT是一个只有前向传播的深度学习框架,只负责模型的推理(inference)过程,一般不用TensorRT来训练模型的,而是用于部署时加速模型运行速度。
  2. TensorRT主要做了这么两件事情,来提升模型的运行速度。

<1>TensorRT支持INT8和FP16的计算。深度学习网络在训练时,通常使用 32 位或 16 位数据。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值