如果服务器上有多块儿GPU可以供使用,但此时你希望在指定的服务器上跑,这个时候我们可以使用环境变量CUDA_VISIBLE_DEVICES来解决这个问题。
watch -n 1 nvidia-smi #查看当前多块GPU的状态
然后设置指定的GPU,例如设定在第二个GPU上运行,可设置为:
os.environ['CUDA_VISIBLE_DEVICES'] = '1'
如果服务器上有多块儿GPU可以供使用,但此时你希望在指定的服务器上跑,这个时候我们可以使用环境变量CUDA_VISIBLE_DEVICES来解决这个问题。
watch -n 1 nvidia-smi #查看当前多块GPU的状态
然后设置指定的GPU,例如设定在第二个GPU上运行,可设置为:
os.environ['CUDA_VISIBLE_DEVICES'] = '1'