tensorflow 2.1.0 GPU安装[显卡GeForceMX150+CUDA10.1]

版本:
Tensorflow 2.1.0 + CUDA 10.1

STEP1

查看自己电脑显卡对应的CUDA最高版本

参考链接https://jingyan.baidu.com/article/6fb756ec4fabc4241858fbf7.html
注意: 查询到的版本为对应的最高版本,可以低于该版本。如果已经下载tensorflow,则需要和tensorflow版本对应。【2.1.0以上版本的tensorflow没有经过特别指定的话,一般会自动下载GPU和CPU版本】

官方CUDA和tensorflow对照表
https://tensorflow.google.cn/install/source_windows#gpu

STEP2

下载和安装对应版本的CUDA

这里以10.1为例:
step1
该路径为临时解压路径,软件安装好后会自动删除。【不建议更改路径】
解压过程中,如果电脑有安装360等杀毒软件,会弹出警告,点击允许所有操作即可。
解压完成后会自动启动,检查兼容性
在这里插入图片描述
许可协议
在这里插入图片描述
这里我们选择【自定义】
在这里插入图片描述
这里我们只选择第一个
在这里插入图片描述
如果没有安装VS C++编译器,把这个项目取消掉就可以了。这里我安装过VS2017,就不做演示了。
在这里插入图片描述
这里我们更改安装位置,当然也可以选择不更改。
在这里插入图片描述
点击【下一步】等待安装结束
同样的,如果电脑有安装360,在完成安装操作时会有预警弹窗,允许操作即可。
在这里插入图片描述
安装成功
在这里插入图片描述

STEP3

下载并安装对应版本的CUDnn

在官网上找到对应版本下载解压即可。
解压后包含 3个文件夹和一个README
复制3个文件夹到之前安装CUDA时选择的路径,这里我的路径是D:\NVIDIA\CUDA
在这里插入图片描述

STEP4

配置环境变量

1. 添加系统变量
计算机上点右键,打开属性->高级系统设置->环境变量,可以看到系统中多了CUDA_PATH和CUDA_PATH_V10_0两个环境变量。
在这里插入图片描述

接下来,还要在系统中添加以下几个环境变量:
【在系统变量中点击新建】
在这里插入图片描述
CUDA_SDK_PATH = C:\ProgramData\NVIDIA Corporation\CUDA Samples\v8.0(这是默认安装位置的路径,我的路径为D:\NVIDIA\CUDA Samples)
CUDA_LIB_PATH = %CUDA_PATH%\lib\x64
CUDA_BIN_PATH = %CUDA_PATH%\bin
CUDA_SDK_BIN_PATH = %CUDA_SDK_PATH%\bin\win64
CUDA_SDK_LIB_PATH = %CUDA_SDK_PATH%\common\lib\x64
2. 编辑系统变量中的PATH
在这里插入图片描述
选中,编辑,然后添加如下路径:
%CUDA_LIB_PATH%
%CUDA_BIN_PATH%
%CUDA_SDK_LIB_PATH%
%CUDA_SDK_BIN_PATH%
【如果CUDA选择默认路径,则添加如下几条路径】
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v8.0\lib\x64
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v8.0\bin
C:\ProgramData\NVIDIA Corporation\CUDA Samples\v8.0\common\lib\x64
C:\ProgramData\NVIDIA Corporation\CUDA Samples\v8.0\bin\win64

【如果CUDA选择自定义路径,则参考我的路径】
D:\NVIDIA\CUDA\lib\x64
D:\NVIDIA\CUDA\bin
D:\NVIDIA\CUDA Samples\common\lib\x64
D:\NVIDIA\CUDA Samples\bin\win64
我的配置情况
系统变量
在这里插入图片描述
PATH
在这里插入图片描述

STEP 5

验证CUDA和CUDnn的安装

快捷键win+R,输入cmd,然后切盘到CUDA的安装路径,这里我的路径是D:\NVIDIA\CUDA
输入** nvcc -V** ,回车运行后返回版本信息,则可视为成功。
安装成功如图所示:
在这里插入图片描述
tensorflow 简单的测试程序
在这里插入图片描述
随文附上我的版本文件包【CUDA10.1+CUDnn10.1】,CUDA官网比较卡,可能需要挂梯子下载。
CUDA10.1 提取码:asdf
CUDnn 提取码:asdf
CUDA+CUDnn 提取码:asdf

自编译tensorflow: 1.python3.5,tensorflow1.12; 2.支持cuda10.0,cudnn7.3.1,TensorRT-5.0.2.6-cuda10.0-cudnn7.3; 3.支持mkl,无MPI; 软硬件硬件环境:Ubuntu16.04,GeForce GTX 1080 配置信息: hp@dla:~/work/ts_compile/tensorflow$ ./configure WARNING: --batch mode is deprecated. Please instead explicitly shut down your Bazel server using the command "bazel shutdown". You have bazel 0.19.1 installed. Please specify the location of python. [Default is /usr/bin/python]: /usr/bin/python3 Found possible Python library paths: /usr/local/lib/python3.5/dist-packages /usr/lib/python3/dist-packages Please input the desired Python library path to use. Default is [/usr/local/lib/python3.5/dist-packages] Do you wish to build TensorFlow with XLA JIT support? [Y/n]: XLA JIT support will be enabled for TensorFlow. Do you wish to build TensorFlow with OpenCL SYCL support? [y/N]: No OpenCL SYCL support will be enabled for TensorFlow. Do you wish to build TensorFlow with ROCm support? [y/N]: No ROCm support will be enabled for TensorFlow. Do you wish to build TensorFlow with CUDA support? [y/N]: y CUDA support will be enabled for TensorFlow. Please specify the CUDA SDK version you want to use. [Leave empty to default to CUDA 10.0]: Please specify the location where CUDA 10.0 toolkit is installed. Refer to README.md for more details. [Default is /usr/local/cuda]: /usr/local/cuda-10.0 Please specify the cuDNN version you want to use. [Leave empty to default to cuDNN 7]: 7.3.1 Please specify the location where cuDNN 7 library is installed. Refer to README.md for more details. [Default is /usr/local/cuda-10.0]: Do you wish to build TensorFlow with TensorRT support? [y/N]: y TensorRT support will be enabled for TensorFlow. Please specify the location where TensorRT is installed. [Default is /usr/lib/x86_64-linux-gnu]:/home/hp/bin/TensorRT-5.0.2.6-cuda10.0-cudnn7.3/targets/x86_64-linux-gnu Please specify the locally installed NCCL version you want to use. [Default is to use https://github.com/nvidia/nccl]: Please specify a list of comma-separated Cuda compute capabilities you want to build with. You can find the compute capability of your device at: https://developer.nvidia.com/cuda-gpus. Please note that each additional compute capability significantly increases your build time and binary size. [Default is: 6.1,6.1,6.1]: Do you want to use clang as CUDA compiler? [y/N]: nvcc will be used as CUDA compiler. Please specify which gcc should be used by nvcc as the host compiler. [Default is /usr/bin/gcc]: Do you wish to build TensorFlow with MPI support? [y/N]: No MPI support will be enabled for TensorFlow. Please specify optimization flags to use during compilation when bazel option "--config=opt" is specified [Default is -march=native -Wno-sign-compare]: Would you like to interactively configure ./WORKSPACE for Android builds? [y/N]: Not configuring the WORKSPACE for Android builds. Preconfigured Bazel build configs. You can use any of the below by adding "--config=" to your build command. See .bazelrc for more details. --config=mkl # Build with MKL support. --config=monolithic # Config for mostly static monolithic build. --config=gdr # Build with GDR support. --config=verbs # Build with libverbs support. --config=ngraph # Build with Intel nGraph support. --config=dynamic_kernels # (Experimental) Build kernels into separate shared objects. Preconfigured Bazel build configs to DISABLE default on features: --config=noaws # Disable AWS S3 filesystem support. --config=nogcp # Disable GCP support. --config=nohdfs # Disable HDFS support. --config=noignite # Disable Apacha Ignite support. --config=nokafka # Disable Apache Kafka support. --config=nonccl # Disable NVIDIA NCCL support. Configuration finished 编译: hp@dla:~/work/ts_compile/tensorflow$ bazel build --config=opt --config=mkl --verbose_failures //tensorflow/tools/pip_package:build_pip_package 卸载已有tensorflow: hp@dla:~/temp$ sudo pip3 uninstall tensorflow 安装自己编译的成果: hp@dla:~/temp$ sudo pip3 install tensorflow-1.12.0-cp35-cp35m-linux_x86_64.whl
### 回答1: 1. 确认你的电脑是否支持GPU加速,如果支持,需要安装相应的显卡驱动程序。 2. 安装CUDA Toolkit,这是一个用于GPU加速的工具包,可以从NVIDIA官网下载对应版本的CUDA Toolkit。 3. 安装cuDNN,这是一个用于深度学习的GPU加速库,也可以从NVIDIA官网下载对应版本的cuDNN。 4. 安装Anaconda或者Miniconda,这是一个Python的环境管理工具,可以从官网下载对应版本的安装包。 5. 创建一个新的conda环境,可以使用以下命令: conda create -n tensorflow-gpu python=3.7 6. 激活新的conda环境,可以使用以下命令: conda activate tensorflow-gpu 7. 安装tensorflow-gpu,可以使用以下命令: pip install tensorflow-gpu==2.1. 8. 安装其他需要的Python库,例如numpy、matplotlib等。 9. 测试安装是否成功,可以使用以下代码: import tensorflow as tf print(tf.__version__) print(tf.test.is_gpu_available()) 如果输出的版本号为2.1.,并且is_gpu_available()返回True,则说明安装成功。 以上就是tensorflow2.1.gpu安装教程的详细步骤。 ### 回答2: TensorFlow是一种用于机器学习和深度学习的开源软件库,2.1.0是TensorFlow的一个版本。通常情况下,安装TensorFlow可以在CPU和GPU上进行。现在,我们将介绍安装TensorFlow 2.1.0 GPU版本的步骤。 首先,安装CUDA和cuDNN,因为TensorFlow需要这些软件来与GPU进行交互。 CUDA是英伟达公司的GPU加速计算平台,而cuDNN是针对深度学习的GPU加速库。您可以在英伟达的官方网站上下载并安装最新版本。确保您的CUDA和cuDNN是与您的TensorFlow版本兼容的。安装完成后,请将CUDA和cuDNN的路径添加到您的系统环境变量中。 接下来,您可以使用命令行(cmd)或Jupyter笔记本来安装TensorFlow。首先,确保您的pip是最新版本,可以使用以下命令来更新: ``` pip install --upgrade pip ``` 然后,使用以下命令来安装TensorFlow2.1.0: ``` pip install tensorflow-gpu==2.1.0 ``` 如果您在安装过程中遇到问题,请检查CUDA和cuDNN的版本是否正确并添加到系统环境变量中。此外,如果您使用Anaconda或其他虚拟环境,请确保您已激活该环境。 安装完成后,您可以使用以下代码来检查TensorFlow是否已正确安装: ``` import tensorflow as tf print(tf.__version__) print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU'))) ``` 如果控制台输出TensorFlow的版本和GPU的数量,则说明TensorFlow已正确安装。 总之,安装TensorFlow2.1.0 GPU版本需要先下载和安装CUDA和cuDNN,然后使用pip命令来安装TensorFlow。尽管安装有一定的技术含量,但这个过程是很简单的,只要您遵循上述步骤,就可以很快地安装TensorFlow2.1.0 GPU版本。 ### 回答3: Tensorflow是一种广泛使用的深度学习框架。在开发过程中,许多人希望能够使用graphics processing unit (GPU)来加速模型的训练,因为GPU可以极大地提高训练速度。在这篇文章中,我们提供了Tensorflow2.1.0的GPU安装教程,帮助大家快速地安装其运行环境。 第一步:安装Anaconda 在开始安装Tensorflow之前,我们需要先安装Anaconda,这是一种功能强大的Python发行版,可让我们轻松地配置Python环境并管理第三方软件包。 在安装Anaconda之前,我们需要在官网下载对应的安装文件。下载完成后,按照官方指示逐步安装即可。 第二步:创建Python虚拟环境 接下来,我们需要创建一个虚拟环境,以便Tensorflow与其他Python库不会产生冲突。在Anaconda Navigator中,打开终端或cmd,输入以下命令即可: conda create -n tensorflow-gpu python=3.7 在此过程中,我们可以根据需求将虚拟环境命名为tensorflow-gpu。此外,在创建时,我们还需要确保python版本是3.7或更高版本。 第三步:安装NVIDIA显卡驱动和CUDA 在使用GPU加速Tensorflow之前,我们需要安装NVIDIA显卡驱动和CUDA库。为了安装CUDA库,我们首先需要确定计算机的显卡型号。可以通过以下命令进行检查: nvidia-smi 在确定显卡型号后,我们需要从官方网站下载与其兼容的驱动程序和CUDA版本。 下载完成后,我们需要在Anaconda中打开虚拟环境,进入虚拟环境后,使用以下命令进行安装: conda install cudatoolkit=10.1 在此安装命令中,cudatoolkit版本号为10.1,以适应NVIDIA驱动程序。需要根据自己的显卡型号选择安装相应版本的显卡驱动程序和CUDA。 第四步:安装Tensorflow GPU版本 当我们完成了CUDA显卡驱动程序的安装之后,我们就可以安装Tensorflow GPU版本了。在虚拟环境中,使用以下命令进行安装: pip install tensorflow-gpu==2.1.0 -i https://pypi.douban.com/simple/ 在此命令中,我们指定了tensorflow-gpu版本为2.1.0,以保证Tensorflow版本与CUDA显卡驱动程序的兼容性。 第五步:测试安装 在完成安装之后,我们可以尝试运行以下Python代码,以测试Tensorflow是否成功安装: import tensorflow as tf print(tf.__version__) 如果正确安装,输出结果应该显示安装Tensorflow版本号。 以上就是Tensorflow2.1.0 GPU安装教程的全部步骤,希望以上内容能够对大家有所帮助。需要注意的是,安装过程中需要考虑到调整台式电脑或者笔记本电脑的显卡适用性问题,出现驱动兼容性问题需要及时修改配置,否则将无法完成安装和调试。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值