最近在新服务上配tf,发现无论怎么配都cpu版本的,算是废了一番功夫才成功。所以这次把自己认为正确的步骤码一下
一、查询GPU对应的CUDA版本
在终端输入“nvidia-smi”,在第一行右上角我的驱动版本是384.130,打开英伟达的CUDA和显卡对照表网站https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html
可以发现支持我显卡的最高CUDA版本是8.0
二、Conda安装对应版本CUDA
conda install cudatoolkit==8.0
安装成功后,安装tf
三、Conda安装tensorflow
conda install tensorflow-gpu
四、测试TF
import tensorflow as tf
with tf.device('/cpu:0'):
a = tf.constant ([1.0, 2.0, 3.0], shape=[3], name='a')
b = tf.constant ([1.0, 2.0, 3.0], shape=[3], name='b')
with tf.device('/gpu:0'):
c = a + b
# 注意:allow_soft_placement=True表明:计算设备可自行选择,如果没有这个参数,会报错。
# 因为不是所有的操作都可以被放在GPU上,如果强行将无法放在GPU上的操作指定到GPU上,将会报错。
sess = tf.Session(config=tf.ConfigProto (allow_soft_placement=True, log_device_placement=True))
# sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
sess.run(tf.global_variables_initializer())
print (sess.run(c))
查看输出结果