TensorFlow PyTorch Docker环境
需要在原生系统下安装相关环境的参见:
Jetson Nano ( 二)TensorFlow PyTorch 及“annconda”的安装配置
一.软硬件版本
- 注:docker与nvidia-docker已默认安装在系统中无需另安装。
Jetson Nano 4G
JP 4.4.1
CUDA 10.2
CUDNN 8.0
TensorRT 7.1.3.0
Docker/Nvidia-Docker 19.03.6
二.Nvidia Containers
- 官网地址:
https://ngc.nvidia.com/catalog/containers
- 进入以上界面后,搜索Jetson,就会出现相关镜像。
- 这里我选择了NVIDIA L4T ML镜像内含tensorflow与pytorch等机器学习和深度学习库(不同德系统版本对应不同版本的镜像,内部环境库版本有所不同)。
- 当前系统为JP4.4.1这里我选择r32.4.4-py3版本。
sudo docker pull nvcr.io/nvidia/l4t-ml:r32.4.4-py3
- 进入镜像下查看
sudo docker run -it --rm --runtime nvidia --network host nvcr.io/nvidia/l4t-ml:r32.4.4-py3
三.使用docker简单部署一个python脚本
-
首先创建项目文件夹
-
创建编写Dockerfile
-
创建测试脚本
#每隔5s打印 torch是否支持gpu
import torch
import time
i = 0
while i<100:
i = i + 1
time.sleep(5)
print(torch.cuda.is_available())
print('OK')
- 构建docker镜像
sudo docker build -t [Name] .
#最后有个‘.’别漏了
- 运行刚刚构建好的镜像
sudo docker run -it --runtime=nvidia [Name]
成功的话会实时打印 “True”