在训练模型时如何指定具体哪一(多)块GPU显卡进行训练任务

在用tensorflow深度学习模型训练时,假设我们在训练之前没有指定具体用哪一块GPU进行训练,则默认的是选用第0块GPU来训练我们的模型。如果你的电脑有多块GPU的话,其它几块GPU的也会显示被占用。

        有些时候,我们希望可以通过自己指定一块或者几块GPU来训练我们的模型,而不是用这种系统默认的方法。接下来将介绍三种指定GPU训练的方法。

        我们现有的GPU个数如下所示:

        

1.在python代码中通过tf.device()函数来指定训练时所要使用的GPU:

假设我们要用我们的第“1”块(注意,这里是以第“0”块为开始,第“1”块其实应该是第二块了)GPU来训练模型,此时可以通过下面的代码来指定:

tf.device('/gpu:1')
 
 

实验效果如下:

这里用AI_Challenger场景分类的baseline模型测试一下:

在python脚本代码里的最开头加上:

tf.device('/gpu:1')
 
 

 

在终端运行脚本:

我们可以看到,这样指定GPU还是有一点毛病的。

虽然指定了第“1“块GPU来训练,但是其它几个GPU也还是被占用,只是模型训练的时候,是在第1块GPU上进行。

所以,我们使用下面的第2、3种方法。

 

 

 

 

2.在python代码中通过CUDA_VISIBLE_DEVICES来指定:

同样使用第”1“块GPU来训练模型,我们可以在python代码开头加入下面两行:


 
 
  1. import os
  2. os.environ[ 'CUDA_VISIBLE_DEVICES']= '1'

实验效果如下:

在python脚本代码里的最开头加上:

在终端运行脚本:

我们可以看到,使用这种方法,在训练模型时,只使用了第”1“块GPU,并且其它几块GPU没有被占用。

这种就相当于在我们运行程序的时候,将除第”1“块以外的其他GPU全部屏蔽了,只有第”1“块GPU对当前运行的程序是可见的。

同样,如果要指定第”1,2“块GPU来训练,则上面的代码可以改成:


 
 
  1. import os
  2. os.environ[ 'CUDA_VISIBLE_DEVICES']= '2,3'

类似的如果还有更多的GPU要指定,都可以仿照上面的代码进行添加,——显卡数字中间用英文逗号隔开即可。

 

 

 

3.在终端执行.py文件时通过CUDA_VISIBLE_DEVICES来指定(与2类似):

 

第三种方法和第二种基本一样,不过是在终端运行python程序的前面指定,比如:

CUDA_VISIBLE_DEVICES=1 python train.py

不过其实道理、实现的功能就和上面2基本是一样的。

实验效果如下:

在终端运行脚本:

前面加上CUDA_VISIBLE_DEVICES=1 

    • 2
      点赞
    • 26
      收藏
      觉得还不错? 一键收藏
    • 0
      评论

    “相关推荐”对你有帮助么?

    • 非常没帮助
    • 没帮助
    • 一般
    • 有帮助
    • 非常有帮助
    提交
    评论
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值