tensorRT 8+ 安装教程
目录
0.相关文档
(1) NVIDIA官方文档(涵盖不同版本)重要!!!*********
(2) 哔哩哔哩上NVIDIA的tensorrt教程(推荐)
(3) NVIDIA-tensorRt官方教程Github文档
官方现在推荐tensorRt 8+
1.官网查找相关文档
2.安装环境
(0)查看tensorRt的环境要求(github上有环境要求,但是tar安装链接里面更宽泛些)
注意:github上的环境要求可能太苛刻,不同版本tar包中的要求还好
(1)强烈建议基于nvidia/cuda ubuntu docker镜像,搭建环境!docker容器搭建教程
(2)下载TensorRt DEB、Tar格式(根据官方的推荐环境安装)
Debian Installation、Tar File Installation 2种安装方式均可!
(4)具体步骤
1)dpkg -i ***.deb,这步骤只是解压,它自动解压至 /var/nv-tensorrt-***文件夹下
2)apt-key add /var/nv-tensorrt-***/7fa2af80.pub
3)apt-get update , apt-get install tensorrt
4)dpkg -l | grep TensorRT 查阅是否成功
.....
(5)其它
如果想用python的tensorrt,还需要下载tar包,参考其中的whl安装-Tar Installation
1)下载tensorrt的tar包,解压,获得python中的whl二进制文件,pip install 对应python版本的tensorrt-***-none-linux_x86_64.whl
2)pip install pycuda
3.clion远程连接docker容器
(1)下载clion,安装,.h .c .C .cxx等全选
(2)docker容器内安装cmake gdb,gdb用于调试:apt-get install cmake gdb;其余查阅我的docker容器教程
(3)创建项目,连接远端,按照如下步骤进行即可,注意RemoteHOST需置顶。clion不像pycharm需要指定python解释器的具体路径,而clion不需要!
(4)连接远端,ssh,1为ip,2为端口号,3docker默认root,4为passwd
(5)clion不像pycharm那样在新建项目时,同时配置映射路径,它需要建好项目后,更改映射路径:file->setting->Build->Deployment->mapping->deployment path !!!!当同步不及时时,可能还会导入/tmp/的映射,需要file->reload cmake project
(6)定期删除/tmp/