在服务器上运行tensorflow的时候,我们有的程序可能只会使用到一块显卡,但是服务器上有很多显卡,如果一起用主要2个问题。
1.显存可能会都被占满
2.不指定的话总会默认使用第一个。
虽然在程序里面也可以指定使用哪块显卡,但是我觉得不如在命令上加个参数实用。
CUDA_VISIBLE_DEVICES=3,4 python demo.py
上面这个命令就是只给demo.py使用3和4两块显卡,但是调用的时候还是gpn:0和gpu:1。
在服务器上运行tensorflow的时候,我们有的程序可能只会使用到一块显卡,但是服务器上有很多显卡,如果一起用主要2个问题。
1.显存可能会都被占满
2.不指定的话总会默认使用第一个。
虽然在程序里面也可以指定使用哪块显卡,但是我觉得不如在命令上加个参数实用。
CUDA_VISIBLE_DEVICES=3,4 python demo.py
上面这个命令就是只给demo.py使用3和4两块显卡,但是调用的时候还是gpn:0和gpu:1。