编程速记(41):PyTorch篇&Tensorflow篇-CUDA out of memory & 指定model/data运行GPU

一、简述

场景简述:文件需要加载多个不同的模型同时运行从而导致cuda OOM,这些模型有的是用tf代码写的,有的是用PyTorch写的。

二、尝试过的失败方案

对于PyTorch而言,使用多GPU训练方案也许是一种可行的方案。

net = torch.nn.DataParallel(model, device_ids=[xxx])

但是由于也涉及到tf的model,因此这样并不能解决问题,运行起来依旧会报CUDA oom。

三、解决方案

1.调小batch_size

可以尝试将batch_size直接降到1,如果还是不行就只能考虑第二种方案。

2.手动指定不同model放到不同的GPU上

对于tf:

with tf.device('/gpu:2'):
    com, rec = ComCNN(), RecCNN()
    com.summary()
    rec.summary()

对于PyTorch:

    model = model.to(torch.device('cuda: X'))

或者是:

    model = model.cuda(X) # X代表GPU编号

值得注意的是:不同的tensor之间如果需要进行运算的话,需要保证在同一个gpu上,将tensor指定到具体的gpu上:

    data = data.cuda(X) # X代表GPU编号

四、参考

1.torch.device的作用
2.Torch之CUDA使用指定显卡

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值