linux安装和卸载:
1.查看当前cuda版本:cat /usr/local/cuda/version.txt
cat:用于连接文件并打印到标准输出设备上
2.在安装网站:https://pytorch.org/get-started/locally/
寻找对应cuda版本的pip安装或者conda安装(之前试过conda安装失败惹)
卸载:pip uninstall torch
查看版本:
-
import torch
-
print(torch.__version__)
在linux下如何查看gpu型号:lspci | grep -i nvidia
列出所有可用gpu设备:nvidia-smi -L
查看gpu使用情况:nvidia-smi
查看具体进程情况:ps -ef|grep 14905(这个是nvidia-smi里面Processes的PID)
CUDA_VISIBLE_DEVICES=1 python test.py 在终端执行程序时指定GPU:
以下形式:
CUDA_VISIBLE_DEVICES=1 只允许编号1的GPU
CUDA_VISIBLE_DEVICES=0,1 0和1同时占用
CUDA_VISIBLE_DEVICES=“0,1” 同上
CUDA_VISIBLE_DEVICES="" 不使用gpu
(4)python代码中指定GPU
import os
os.environ["CUDA_VISIBLE_DEVICES"]="0"
注意,服务器看到的GPU序号和手动在Linux上查看的序号是相反的【代码调用】,比如
os.environ[“CUDA_VISIBLE_DEVICES”] = “0”的话,你会发现在watch nvidia-smi指令下,2号GPU正在满负荷的运行!