Tensorflow指定GPU进行训练模型
实验室共用一个深度学习服务器,两块GPU,在用tensorflow训练深度学习模型的时候,假设我们在训练之前没有指定GPU来进行训练,则默认的是选用第0块GPU来训练我们的模型,而且其它几块GPU的也会显示被占用。有些时候,我们更希望可以通过自己指定一块或者几块GPU来训练我们的模型,而不是用这种默认的方法。接下来将简单介绍两种简单的方法。
- 我们现有的GPU个数如下所示:
1.第一种是通过tf.device()函数来指定训练时所要使用的GPU.
假设我们要用我们的第2块GPU来训练模型,此时可以通过下面的代码来指定:
tf.device('/gpu:1')
实验效果如下:
我们可以看到,虽然指定了第2块GPU来训练,但是第一个GPU也还是被占用,只是模型训练的时候,是在第2块GPU上进行。
2.通过CUDA_VISIBLE_DEVICES来指定.
同样使用第2块GPU来训练模型,我们可以在我们的python代码中加入:
import os
os.environ[&#