Win10安装CUDA10和cuDNN

官方安装教程

CUDA:https://docs.nvidia.com/cuda/cuda-installation-guide-microsoft-windows/index.html
cuDNN:https://docs.nvidia.com/deeplearning/sdk/cudnn-install/index.html#installwindows


WIN10安装CUDA10

CUDA Toolkit 10.0 Download:https://developer.nvidia.com/cuda-downloads

1 添加环境变量path, 一个是bin,一个是lib/x64


WIN10安装cuDNN

cuDNN Download:https://developer.nvidia.com/rdp/cudnn-download

2 将对应的bin,include,lib分别拷贝到CUDA对应的文件夹中


环境配置——win10下tensorflow-GPU版本升级至tensorflow-GPU 1.14.0


tensorflow GPU 使用配置

查看机器上GPU情况

命令: nvidia-smi

功能:显示机器上gpu的情况

命令: nvidia-smi -l

功能:定时更新显示机器上gpu的情况

eg: nvidia-smi -l 10 # 10s刷新一次

tf.ConfigProto()函数用在创建session的时候,用来对session进行参数配置:

config = tf.ConfigProto(allow_soft_placement=True, allow_soft_placement=True)
config.gpu_options.per_process_gpu_memory_fraction = 0.4 #占用40%显存
sess = tf.Session(config=config)

1. 记录设备指派情况 : tf.ConfigProto(log_device_placement=True)

设置tf.ConfigProto()中参数log_device_placement = True ,可以获取到 operations 和 Tensor 被指派到哪个设备(几号CPU或几号GPU)上运行,会在终端打印出各项操作是在哪个设备上运行的。

2. 自动选择运行设备 : tf.ConfigProto(allow_soft_placement=True)

在tf中,通过命令 “with tf.device(’/cpu:0’):”,允许手动设置操作运行的设备。如果手动设置的设备不存在或者不可用,就会导致tf程序等待或异常,为了防止这种情况,可以设置tf.ConfigProto()中参数allow_soft_placement=True,允许tf自动选择一个存在并且可用的设备来运行操作。

3. 限制GPU资源使用:

为了加快运行效率,TensorFlow在初始化时会尝试分配所有可用的GPU显存资源给自己,这在多人使用的服务器上工作就会导致GPU占用,别人无法使用GPU工作的情况。

tf提供了两种控制GPU资源使用的方法,一是让TensorFlow在运行过程中动态申请显存,需要多少就申请多少;第二种方式就是限制GPU的使用率。

限制方法:

一、动态申请显存
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config

二、限制GPU使用率
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.4 #占用40%显存
session = tf.Session(config=config)

gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.4)
config=tf.ConfigProto(gpu_options=gpu_options)
session = tf.Session(config=config)

三 指定使用哪块GPU
在终端执行程序时指定GPU

CUDA_VISIBLE_DEVICES=1 python your_file.py

这样在跑你的网络之前,告诉程序只能看到1号GPU,其他的GPU它不可见

可用的形式如下:

CUDA_VISIBLE_DEVICES=1 Only device 1 will be seen
CUDA_VISIBLE_DEVICES=0,1 Devices 0 and 1 will be visible
CUDA_VISIBLE_DEVICES=“0,1” Same as above, quotation marks are optional
CUDA_VISIBLE_DEVICES=0,2,3 Devices 0, 2, 3 will be visible; device 1 is masked
CUDA_VISIBLE_DEVICES="" No GPU will be visible
c/article/details/80566771

在python程序中设置:
os.environ[‘CUDA_VISIBLE_DEVICES’] = ‘0’ #使用 GPU 0
os.environ[‘CUDA_VISIBLE_DEVICES’] = ‘0,1’ # 使用 GPU 0,1

come from https://blog.csdn.net/Gavinmiaoc/article/details/80566771

=================================================

import os
import tensorflow as tf
from tensorflow.python.client import device_lib
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'

 with tf.device('/gpu:0'): # better than  # os.environ["CUDA_VISIBLE_DEVICES"] = "1"  
 print(device_lib.list_local_devices())

安装CUDAcuDNN的步骤如下: 1. 首先,下载并安装CUDA。可以从NVIDIA官方网站下载适合您的操作系统和显卡的CUDA安装程序。安装过程中,选择自定义安装选项,确保选择正确的安装路径。安装完成后,系统会自动将CUDA的路径添加到系统的环境变量中。[1] 2. 下载cuDNNcuDNN是一个用于深度学习的加速库,可以提高训练和推理的速度。您需要在NVIDIA的开发者网站上注册并登录,然后下载适合您的CUDA版本的cuDNN。下载完成后,解压缩文件。 3. 将cuDNN文件复制到CUDA安装目录中。打开解压缩后的cuDNN文件夹,将其中的文件复制到CUDA安装目录的相应文件夹中。具体来说,将cuDNN的bin文件夹中的文件复制到CUDA的bin文件夹中,将include文件夹中的文件复制到CUDA的include文件夹中,将lib文件夹中的文件复制到CUDA的lib文件夹中。[2] 4. 验证安装是否成功。打开命令提示符,输入以下命令来验证CUDAcuDNN安装是否成功: - 输入`nvcc -V`,如果显示了CUDA的版本信息,则表示CUDA安装成功。 - 输入`python`,然后在Python交互式环境中输入以下代码来验证cuDNN安装: ```python import tensorflow as tf print(tf.__version__) ``` 如果能够成功导入TensorFlow并显示版本号,则表示cuDNN安装成功。[3] 请注意,安装CUDAcuDNN可能会因个人电脑的配置和操作系统的不同而有所差异。建议在安装前仔细阅读官方文档,并确保您的系统满足安装要求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值