【TensorRT系列】(一)从SSD模型跑起来开始

零、TensorRT简介

1、TensorRT的基本功能

TensorRT是NVIDIA开发的一个可以在NVIDIA旗下的GPU上进行高性能推理的C++库,是一个高性能推理优化引擎。

其核心库是使用c++去加速NVIDIA生产的GPU,具有python API。它可以加速的框架模型有:tensorflow、Caffe、Pytorch、MXNet等。

它可以吸收在这些流行框架上受过训练的神经网络,优化神经网络计算,生成一个轻量级的运行时引擎,然后它将在这些GPU平台上最大限度地提高吞吐量、延迟和性能。

2、工作原理

主要的优化模型工作集中在:
1)分析图结构中没有用到的输出layer,对网络层进行合并。
2)融合卷积操作、bias和ReLU操作。
3)把有相似参数的操作和有相同输入源的tensor聚合。
4)通过直接将layer的输出对应到最终的destination,这样融合了级联层。

3、官方指导

https://docs.nvidia.com/deeplearning/sdk/tensorrt-developer-guide/。

一、环境安装

如果有环境问题,直接跳到第三节 Q & A,看看能否给你一点帮助。

1、本机环境
  • ubuntu 16.04
  • cuda 9
2、安装cuDNN

下载的是cudnn-9.0-linux-x64-v7.6.0.64.tgz 的压缩包时,按下方指令进行安装:

(1) 首先解压缩下的cudnn压缩包文件

tar -xzvf cudnn-9.0-linux-x64-v7.tgz
# 执行安装,其实就是拷贝头文件和库文件并给予权限
sudo cp cuda/include/cudnn.h /usr/local/cuda/include
sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn*

(2)验证安装是否成功

cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
如果显
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值