[Tensorflow]Linux 下支持 CUDA9.1 cuDNN7的tensorflow

在服务器上搭建tensorflow-gpu,使用"nvcc -V“命令看了一眼CUDA版本,发现是9.1。因为学长用的是pytorch,而官方版本至1.7为止还没有支持CUDA9.1的。实在不想用docker,查了一下发现了windows下用tensorflow+CUDA9.1,没有linux的。好在顺着这条线索,在github上查到了相关的东西,分享一下。

原文链接:

https://blog.csdn.net/vcvycy/article/details/79298703

根据里面的链接,我们发现非官方的安装包,大概包含tensorflow和wheel两个关键词,所以在github上搜索一下:


mind/wheels是tiny mind开发的为Linux准备的特殊版本的tensorflow,包含支持CUDA9.1的tensorflow。

fo40225/tensorflow-windows-wheel是为了windows准备的。

搬运下载链接:linux可用CUDA9.1的tensorflow-gpu

另外:whl文件的安装自行搜索,需要在whl所在路径下使用pip install xxx.whl

这个装完以后在pip list里面显示的是tensorflow 1.6.0,但它实际上是gpu版的。

你可以使用这里的代码测试一下,代码明确要求使用GPU设备,为了方便搬运了一下:

import tensorflow as tf

with tf.device('/cpu:0'):
    a = tf.constant([1.0, 2.0, 3.0], shape=[3], name='a')
    b = tf.constant([1.0, 2.0, 3.0], shape=[3], name='b')
with tf.device('/gpu:1'):
    c = a + b

# 注意:allow_soft_placement=True表明:计算设备可自行选择,如果没有这个参数,会报错。
# 因为不是所有的操作都可以被放在GPU上,如果强行将无法放在GPU上的操作指定到GPU上,将会报错。
sess = tf.Session(config=tf.ConfigProto(allow_soft_placement=True, log_device_placement=True))
# sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
sess.run(tf.global_variables_initializer())
print(sess.run(c))

另外,mind/wheels里面还有支持AVX指令集的版本,未使用AVX指令集的版本会给出警告:

Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX AVX2

这个警告并没有太大影响,只是告诉你,选择支持AVX的版本可以更好的利用您的CPU资源,然而网上多数的解决方法是屏蔽二级警告,使用纯CPU版本的开发者可以考虑一下mind/wheels里的CPU版本。

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
TensorFlow环境下安装CUDACuDNN,需要按照以下步骤进行操作: 1. 安装CUDA 首先需要到NVIDIA官网下载对应版本CUDA,选择合适的版本并下载。下载完成后,双击安装文件进行安装。 安装时需要注意以下几点: - 选择自定义安装 - 选择安装路径 - 安装时选择安装CUDA Toolkit和相关驱动程序 安装完成后,需要将CUDA路径添加到环境变量中。打开命令行窗口,输入以下命令: ``` setx PATH "C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\bin;%PATH%" setx CUDA_PATH "C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0" ``` 其中,CUDA版本号根据具体情况进行修改。 2. 安装CuDNN 下载对应版本CuDNN,选择合适的版本并下载。下载完成后,将文件解压缩到CUDA安装路径下的对应目录中。 例如,如果CUDA安装路径是C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0,那么将解压缩后的文件放置到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\include和C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\lib\x64目录下。 3. 配置TensorFlow环境 安装完CUDACuDNN后,需要修改TensorFlow的配置文件,以便使用GPU。 打开Anaconda Prompt,进入Python环境,输入以下命令: ``` import tensorflow as tf print(tf.config.list_physical_devices('GPU')) ``` 如果返回结果为空,则需要修改TensorFlow的配置文件。在Python环境下输入以下命令: ``` import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' ``` 然后打开TensorFlow的配置文件,通常是在C:\Users\用户名\.keras\keras.json或C:\Users\用户名\AppData\Roaming\Python\Python版本号\site-packages\tensorflow\python\keras\keras.json中,将backend改为tensorflow-gpu。 修改完成后,重新运行程序,在Python环境下输入以下命令: ``` import tensorflow as tf print(tf.config.list_physical_devices('GPU')) ``` 如果返回结果不为空,则说明TensorFlow已经成功配置GPU环境。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值