TensorFlow(2.x版本,1.x版本)以及pytorch版本中关于GPU的信息查看以及GPU的配置问题

28 篇文章 142 订阅
8 篇文章 15 订阅

前言:我们一般使用深度学习框架都是GPU版本的,如何检测我们的安装是否成功,GPU、CUDA、CUDNN等信息呢?本文做了一个归纳总结:

一、tensorflow版本的GPU信息查看

(1)tensorflow版本

tf.__version__     tensorflow版本
tf.__xxxxx__       一些信息的查看
tf.verison.xxxx    一些信息
tf.test.is_built_with_cuda()
tf.test.gpu_device_name()   默认获得第一块GPU设备,打印出 "/device:gpu:0"
tf.test.is_built_with_gpu_support()
tf.test.is_built_with_rocm(): Returns whether TensorFlow was built with ROCm (GPU) support.
tf.test.is_gpu_available(): 快要被取代了,被后面的方法所替代tf.config.list_physical_devices('GPU')

注意:tensorflow2.x版本以及较新的几个tensorflow1.x版本,关于一些基本信息的查看和配置都主要在以下两个包中

tf.test.xxxx
tf.comfig.xxxx

只不过有一些名称可能不太一样。

(2)pytorch关于GPU的信息查看

torch.__version__
torch.version.cuda  #9.0
torch.cuda.is_available()
torch.cuda.get_device_name(0)
torch.cuda.get_device_properties(0)
torch.cuda.device(0)
torch.cuda.device_count()
torch.cuda.current_device()    # 当前正在使用的设备

torch.backend.cudnn.version()   # 7005,查看cudnn的版本

注意torch的GPU信息查看主要是在 torch.cuda.xxxx 这个包里面。

注意:torch里面有一个验证tensor是否被cudnn支持的方法。

import torch
from torch.backends import cudnn

x = torch.Tensor([1.0])
xx = x.cuda()
print(xx)

# CUDNN TEST 验证cudnn
print(cudnn.is_acceptable(xx))  # xx是一个torch的tensor

(3)清理GPU显存的几种方法

方法一:torch版本
torch.cuda.empty()

# 方法二
ps aux | grep python
kill -9 [pid]

# 方法三
nvidia-smi --gpu-reset -i [gpu-id]  # id 是0,1,2,3,等等,这需要管理员权限

 

 

 

 

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值